Bei Gastbeiträgen müssen diese freigeschaltet werden.
So, hier ist er nun endlich. Der Thread wo wir alles ausdiskutieren können bezüglich der Farbtiefe.
Hier geht es rein um die Farbtiefe 8bit vs 10bit! Das hat nichts mit HDR zu tun!
Ich fange dann auch direkt mal an.
Kompatibilität:
Bei mir läuft 10bit überall problemlos. Sowohl am PC, am Mediaplayer, am TV, am Mobiltelefon. Das wird wohl bei den allermeisten auch so sein, denn ein Chip der HEVC decodieren kann, kann das meist auch mit 10bit umgehen und das meist sogar auch noch in 4k.
Größe:
Ich habe inzwischen schon öfter gelesen dass 10bit Dateien im Vergleich zu 8bit Dateien minimal kleiner sind. Das soll darin begründet sein dass der Codec die 10bit wohl besser komprimieren kann. Das mag auch so stimmen. Die Erklärungen hierzu sind logisch.
Leider kenne ich das aus der Praxis aber nicht so. Ich hatte auch schon ein paar Versuche gemacht mit 8 vs 10 vs 12bit und bei mir stieg die Bitrate sogar leicht an. Hier beim Film "Lost in Space" ist die 10bit Variante auch etwas größer. Im direkten Vergleich und mit der Lupe untersucht empfinde ich die 8bit Variante aber sogar als etwas besser (nur Nuancen). Wenn der Unterschied tatsächlich an unterschiedlichen Settings liegt, dann muss man aber auch sagen dass die Settings mehr Einfluss auf die Qualität und Größe haben als 8 vs 10bit.
Meine Meinung also: Nichts gegen 10bit. Es gibt natürlich Vorteile wie hübschere Farbverläufe mit weniger Banding. Aber ist das schon alles... ?
Könnte man vielleicht einen Film mit den gleichen Settings einmal mit 8 und einmal mit 10bit codieren?
Ehrlich gesagt, ich merke zwar den Unterschied zwischen SD und HD, aber ansonsten fallen mir diese feinen Unterschiede kaum auf.
10 bit funktioniert bei mir ganz gut.
Hey! Danke für Eröffnung des Threads & den Hinweis auf "Lost in Space", das hatte ich bisher noch nicht entdeckt. Danke auch an FuN für die schnelle 10Bit-Version als Test!
Hab mir jetzt beide Versionen von "Lost in Space" runtergeladen & reingeschaut. Zunächst mal: die 10Bit kann ich super gut ansehen, alles prima! Das schon mal geklärt, v.w. kompatibel!
V.w. Quali möchte ich Dir, "mein Name" zustimmen, finde hier die 8Bit-Version minimal "knackiger" als die 10Bit, nehme dann, naheliegend, aber auch an, dass das eher an den unterschiedlichen Settings liegt.
Soweit ich das überfliegen konnte, gibts bei diesem Film aber auch eh keine problematischen Stellen mit eventuellen Artefakten bei Farbverläufen in dunklen Passagen o.ä.
Mein Interesse ist jetzt nur noch (für mich persönlich) ob ich mit meinem Monitor überhaupt einen Unterschied zwischen 8&10Bit ausmachen kann, oder ob das denjenigen vorbehalten ist, welche 10Bit-fähige Geräte haben, bzw. weiß ich gar nicht so recht, ob mein Gerät dazu in der Lage is oder nicht.
Eine Kodierung eines gleichen Films mit gleichen Settings würde daher auch ich sehr begrüßen, am besten gar einen Film mit problematischen Stellen, wo bei 8Bit Artefakte auftreten, bei 10Bit dann aber nicht bzw. weniger ??
Leider fällt mir grad keiner als Beispiel ein. Werde nochmal nach einem suchen. Vielleicht können aber auch die schlauen Leute, die im Laberkasten so sehr die 10Bit propagiert haben, einen Film als Test vorschlagen, welcher bei 8Bit so sehr gegen 10Bit versagt hat.
Na, liebe Grüße an alle! N bischen weiter können wir das ja noch untersuchen ?
Ergänzung bezüglich Farbverläufe/Banding:
Man darf nun nicht denken sowas gäbe es mit 10bit einfach nichtmehr.
Wenn ein Bild erstmal banding aufweist, dann wird das auch bestehen bleiben, auch wenn man es in 10bit codiert.
Wenn man Blurays als Quelle nimmt, dann hat man dort 8bit vorliegen. Diese mit 10bit zu codieren mag zwar schon auch Vorteile bringen, allerdings beschränkt sich das auf die Codiereffizienz. Daraus wird auch kein echtes 10bit Video mit superhübschen Farbverläufen.
Wenn man ein 4k 10bit HDR Video hernimmt, kann mans auch vergessen, denn das kann man nicht einfach mal so nach SDR konvertieren.
Wenn man ein Video mit Grain/Filmkorn hat, dann beschränkt sich 10bit auch auf mögliche bessere Codiereffizienz, denn dann wars es auch da mit glatten geschmeidigen Farbverläufen.
Allgemein wird man wohl ein Problem mit der Quellsuche haben, denn die Kombination 1080p in 10bit ohne HDR, also das wo sich 10bit richtig auszahlen könnte, wird man nur schwerlich finden. Auch und erst recht mit 4k. Man könnte nurmehr auf Webstreams zurückgreifen; die sind aber qualitativ von Haus aus nicht das gelbe vom Ei und wie die 10bit dort zustandekommen müsste man auch jeweils erst erfragen. Und bei der starken Streamkomprimierung hat man die Vorteile von 10bit auch schnell wieder verspielt.
Es bleibt zusammengefasst bei einer besseren Codiereffizienz. Aber die müsste man erstmal nachweisen. Ich habs nicht geschafft; FuN im Beispielvideo auch nicht. Und wenn sie tatsächlich vorhanden ist, dann leider auch nur marginal.
Weil Animes erwähnt wurden: Da machts mehr Sinn. Da gibts schnell mal glatte Farbverläufe; das kann man super gut komprimieren; da gibts kein Filmkorn; da können die Macher Ihre Streams in bester Qualität ausgeben.
Meine HW (PC/Handy/Tablet) kann es großteils auch abspielen, wobei ich allerdings eher davon ausgehe, dass das eher auf 8 Bit runtergerechnet wird (da ich keinen einzigen TV/Monitor mit 10 Bit Panel habe).
Wo es bei mir allerdings scheitert, ist überall dort, wo ich über den FireTV Stick schaue (also bei jedem TV). Der kann zwar problemlos HEVC, gibt bei 10 Bit Video allerdings bloß Audio aus, Bild bleibt schwarz.
Sicher, ich könnte die jetzt alle (6 Sticks) auf die 4K Variante upgraden, solange ich aber noch keinen 4K Bildschirm habe, würde ich mir das lieber verkneifen (weil dann u.U. sowieso obsolet).
Für mich wäre eine 10 Bit Kodierung also schlecht und wie du oben bereits geschrieben hast, ohne entsprechende Source auch eigentlich nicht notwendig.
Gut zu wissen dass User mit einem (nicht 4k) Fire TV Stick keine 10bit abspielen können. Das ist doch schon ein starkes Argument dagegen.
Ein Noob aus dem Kommentarbereich für Filme.. Was das dort zu suchen hat, bleibt mir ein Rätsel.
Heiko S schrieb: An das FUN Team – Auch ein 8bit Film mit 10bit gerendert ist am Ende deutlich besser als eine 8 zu 8 bit Version. Der Codec hat wesentlich mehr Raum zum Arbeiten. Besonders auffällig ist der Effekt bei kleinen, grenzwertigen Bitraten, Farbverläufen und in dunklen Passagen. Die Kollegen von RARBG auf Warez sind vor kurzem ebenfalls dahinter gekommen und liefern jetzt nur noch 10bit x265. Ferner ist der Einsatz von „aq-mode 3“ bzw „aq-mode 4″(ab x265 3.1+8) zur Verminderung von Artefakten zu empfehlen. Aber Achtung – bei aq3 steigt die Bitrate, wegen der veränderten Balance, enorm an. Ein höher eingestellter CRF Wert gleicht das wieder aus. Ich arbeite inzwischen schon mit x265 v3.5+13 und einigen weiteren Feintunings. Mit den alten Problemen hab ich schon lange nichts mehr am Hut. Probiert es doch einfach selbst mal aus. LG
Versucht es mal. Wäre interessiert an einem Vergleichsvideo. Grenzwertige Bitraten sollten bei FuN ja Normalzustand sein da ihr immer versucht kleinste Größe und gleichzeitig gute Qualität zusammenzubringen.
Da normale BluRays mit 1080p Material nur 8Bit haben stellt sich doch eigentlich nur eine Frage, bringt es irgendwas ein 10Bit Encode von einer 8Bit Quelle zu erstellen. Solange die nicht geklärt ist es doch eigentlich sinnfrei drüber zu diskutieren. Also Film raussuchen, ein 8bit und ein 10bit Encode bei gleichen Einstellungen und mal schauen was dabei raus kommt.
Ob das was bringt? Lasst es uns mal so ausdrücken: Bei der Konvertierung einer 8-bit Quelle in einen 10-bit Film wird die Farbqualität sicher nicht besser, aber auch nicht schlechter. Spräche also trotzdem nichts gegen einen 10-bit Standard. Da wo's hilft, hilft's - da wo nicht, erstmal egal. Es werden ja sowieso in gewissem Rahmen Qualiupdates gemacht. Sollte also irgendwann eine 10-bit Quelle vorliegen kann es immer noch nachgebessert werden.