Anmelden, um einen neuen Beitrag zu schreiben
Registrieren6452 Einträge
@Kamerad✘265. Danke für den Hinweis. Das hatte ich dann mittlerweile auch schon verstanden ?
Freundliche Grüße!
Freundliche Grüße!
@FatBoySlim Soweit ich weiß, braucht man zur korrekten Darstellung von 10-bit Farbtiefe auch geeignete Hardware (Monitor, TV), die das darstellen kann. Die meisten Screens dürften momentan noch 8-bit Geräte sein, somit sieht man im Vergleich gar keinen Unterschied. 10-bit FT in Encodes sind häufig also rein vom optischen her noch sinnlos, gleichzeitig aber viel zukunftssicherer als 8-bit (in etwa vergleichbar mit AVC vs HEVC).
seit zwei tagen wird hier über ein thema diskutiert. ich frage mich, wozu wir ein forum eingerichtet haben.
mach doch mal einer nen fred auf. dann finden wir alle das später auch wieder. 🙂
mach doch mal einer nen fred auf. dann finden wir alle das später auch wieder. 🙂
@JackBauer. Ja, danke! Das wirds wohl sein.
Der Film "Prey" kam dann auch (von dort ohne HDR) & hier, farblich quasi ununterscheidbar gleich, hier dann natürlich mit Vorteil der mundgerechten Kompri.
Danke, by the way, sehr für beide Filme und die vielen anderen, aufs neue & immer wieder, so schnell nach Erscheinen!!
Der Film "Prey" kam dann auch (von dort ohne HDR) & hier, farblich quasi ununterscheidbar gleich, hier dann natürlich mit Vorteil der mundgerechten Kompri.
Danke, by the way, sehr für beide Filme und die vielen anderen, aufs neue & immer wieder, so schnell nach Erscheinen!!
@JackBauer Jaaaaaa, neeeeee - eigentlich nicht ^^
Jegliche Komprimierung führt zu Verlust von Informationen. Auch ein komprimierter Film wird niemals wie das Original aussehen, immer nur "nah dran" - so wie halt beim Sound auch.
Deswegen hab ich ja auch den Hörtest verlinkt. Für praktisch alle Hörer war OPUS mit 100kbps bei Musik und Sprache transparent oder nahezu transparent, sprich: ohne hörbaren Qualitätsverlust.
Auch x265 ist bestenfalls nah an der Quelle, aber niemals identisch. Zum Beispiel jederzeit zu beobachten bei besonders dunklen Szenen - man findet seltenst bis nie welche ohne sichtbare Blockbildung in komprimierten Dateien. Das sind halt genau die feinen Abstufungen an denen bei der Komprimierung u.a. gespart wird.
Jegliche Komprimierung führt zu Verlust von Informationen. Auch ein komprimierter Film wird niemals wie das Original aussehen, immer nur "nah dran" - so wie halt beim Sound auch.
Deswegen hab ich ja auch den Hörtest verlinkt. Für praktisch alle Hörer war OPUS mit 100kbps bei Musik und Sprache transparent oder nahezu transparent, sprich: ohne hörbaren Qualitätsverlust.
Auch x265 ist bestenfalls nah an der Quelle, aber niemals identisch. Zum Beispiel jederzeit zu beobachten bei besonders dunklen Szenen - man findet seltenst bis nie welche ohne sichtbare Blockbildung in komprimierten Dateien. Das sind halt genau die feinen Abstufungen an denen bei der Komprimierung u.a. gespart wird.
Aufgrund der Umfrage hatte ich auf meiner anderen Seite, welche keinen Wert auf kleine Größen legt, mal nach Filmen in 10Bit gesucht. Diese gibt es dort, allerdings auch nicht sehr viele, und, soweit ich das bisher gefunden habe, stets dann auch HDR, & wird von denen dann als HDR10 deutlich ausgezeichnet.
Um es auszuprobieren, habe ich mir "Kate"(Netflix-Release, allerdings auch bereits in HEVC) mit HDR10Bit runtergeladen.
Diesen Film kann ich bei mir zwar problemlos abspielen, er verschwimmt allerdings in düstersten "Un"-Farben.
Eine eigene Umwandlung in 8Bit hat kein besseres Ergebnis erbracht!
Um so begeisterter war ich, dann einen Tag später, diesen Film hier bei funxd vorzufinden (in herkömmlichen 8Bit) mit schönem Kontrast & einwandfreien Farben.
Ob der Unterschied nu an HDR, 10Bit oder einfach an einer, bei den anderen, schlechteren Source liegt, kann ich nicht sagen.
Hilfreich wäre es, zur aktuellen Umfrage, mal ein Beispiel, anhand eines Films, mit sowohl herkömmlichem als auch neuem 10Bit-Encode (so, wie es Euch evtl. vorschwebt), also in beiden Versionen, für jedermann zum Vergleich geliefert zu bekommen.
Habe den Eindruck, dass hier sonst & bereits von den unterschiedlichen Usern die unterschiedlichsten Settings & Material u.a., nicht nachvollziehbar, durcheinander geworfen wird...
Liebe Grüße
Um es auszuprobieren, habe ich mir "Kate"(Netflix-Release, allerdings auch bereits in HEVC) mit HDR10Bit runtergeladen.
Diesen Film kann ich bei mir zwar problemlos abspielen, er verschwimmt allerdings in düstersten "Un"-Farben.
Eine eigene Umwandlung in 8Bit hat kein besseres Ergebnis erbracht!
Um so begeisterter war ich, dann einen Tag später, diesen Film hier bei funxd vorzufinden (in herkömmlichen 8Bit) mit schönem Kontrast & einwandfreien Farben.
Ob der Unterschied nu an HDR, 10Bit oder einfach an einer, bei den anderen, schlechteren Source liegt, kann ich nicht sagen.
Hilfreich wäre es, zur aktuellen Umfrage, mal ein Beispiel, anhand eines Films, mit sowohl herkömmlichem als auch neuem 10Bit-Encode (so, wie es Euch evtl. vorschwebt), also in beiden Versionen, für jedermann zum Vergleich geliefert zu bekommen.
Habe den Eindruck, dass hier sonst & bereits von den unterschiedlichen Usern die unterschiedlichsten Settings & Material u.a., nicht nachvollziehbar, durcheinander geworfen wird...
Liebe Grüße
@mein Name. Danke für den Hinweis, dass HDR nochmal was anderes ist. Ich hatte tatsächlich angenommen, dass 10-oder-mehr-Bit-Filme unweigerlich mit HDR zusammengehören., wüsste dann aber auch nicht, was 10Bit oder mehr bringen soll, wenn nicht auch gleichzeitig der höhere Kontrastumfang gewährleistet ist, welches das "Mehr" an Farben sinnvoll nutzt.
Desweiteren hatte ich nicht angenommen, dass funxd vorhat, bei vorliegender 8Bit-Source diese künstlich in 10Bit umzuwandeln, sondern nur überlegt, bei vorliegender 10Bit-Source, diese auch als solche weiterzugeben.
Lg
Desweiteren hatte ich nicht angenommen, dass funxd vorhat, bei vorliegender 8Bit-Source diese künstlich in 10Bit umzuwandeln, sondern nur überlegt, bei vorliegender 10Bit-Source, diese auch als solche weiterzugeben.
Lg
Im Anime Bereich hat sich 10bit Encoding eigentlich schon länger etabliert, da der Codec ein deutlich besseres Farbspektrum bietet.
Bei "Standard" Genres erschließt sich der Vorteil für mich allerdings auch nicht so ganz.
Bei "Standard" Genres erschließt sich der Vorteil für mich allerdings auch nicht so ganz.
Nicht falsch verstehen. Ich bin nicht gegen 10bit encoding. Bei mir laufen sie auch überall problemlos.
Ich sehe aber auch nicht allzuviel Sinn dahinter. Einfach weil die Unterschiede marginal sind und wenn man 8bit Sourcen hat noch marginaler.
Wenn man auf HDR und 4k setzt, dann ja, 10bit. Da hat man einen höheren Kotnrastumfang und höhere Auflösung, da wird der Unterschied wohl schon sichtbar sein. Aber bei Standard 1080p Blurays-Rips sehe ich da keinen Sinn.
Ich sehe aber auch nicht allzuviel Sinn dahinter. Einfach weil die Unterschiede marginal sind und wenn man 8bit Sourcen hat noch marginaler.
Wenn man auf HDR und 4k setzt, dann ja, 10bit. Da hat man einen höheren Kotnrastumfang und höhere Auflösung, da wird der Unterschied wohl schon sichtbar sein. Aber bei Standard 1080p Blurays-Rips sehe ich da keinen Sinn.
@Spirit
Ich denke wir müssten "Unschärfe" neu definieren =D Mit Schärfe sollte 8 vs 10bit nichts zu tun haben, nur mit Farbtiefe. Hauptunterschied ist wohl Banding, also Farbabstufungen die man mit 10bit natürlich deutlich weniger erkennen sollte als mit 8bit. Aber dann auch weniger an einem Gesicht, sondern mehr auf zB Himmel.
Ich gehe mal davon aus dass mit dem Umstellen auf 10bit auch irgendwelche anderen Settings intern umgestellt werden sodass es gleichzeitig auch schärfer wird.
PS: Bei einem 10 Jahre alten Standard-TV wäre es auch nicht unwahrscheinlich dass dieser überhaupt nur 6bit anzeigen kann und den Rest dithert. Soll nicht negativ gemeint sein; bei mir wirds nicht anders sein 😉
Ich denke wir müssten "Unschärfe" neu definieren =D Mit Schärfe sollte 8 vs 10bit nichts zu tun haben, nur mit Farbtiefe. Hauptunterschied ist wohl Banding, also Farbabstufungen die man mit 10bit natürlich deutlich weniger erkennen sollte als mit 8bit. Aber dann auch weniger an einem Gesicht, sondern mehr auf zB Himmel.
Ich gehe mal davon aus dass mit dem Umstellen auf 10bit auch irgendwelche anderen Settings intern umgestellt werden sodass es gleichzeitig auch schärfer wird.
PS: Bei einem 10 Jahre alten Standard-TV wäre es auch nicht unwahrscheinlich dass dieser überhaupt nur 6bit anzeigen kann und den Rest dithert. Soll nicht negativ gemeint sein; bei mir wirds nicht anders sein 😉
Guten Morgen,
ich möchte auch meinen Senf zur aktuellen Umfrage mit dazu geben, ich habe einige Erfahrungen beim Encodieren gemacht mit 8 Bit als auch mit 10 Bit Farbtiefe, ich habe einen Film gehabt, da bekam ich als Ergebnis immer wieder das gleiche Bild von unschärfe bei einem Gesicht in Nahaufnahme, die Quelle hatte 9000 kb/s. Ich habe kodiert mit 20 - 24 Rf, 8 Bit in Medium und Superfast. Dann habe ich mal die Einstellung probiert mit 10Bit 24 Rf und superfast, ich hatte als Ergebnis nicht mehr die Unschärfe im Gesicht, das file war im Vergleich zu Medium nochmals 40Mb kleiner und die Encoding Geschwindikeit von 30 Minuten bei Medium auf 20 Minuten bei superfast reduziert, mit besserem Ergebnis, jedenfalls für meine Optik, seitdem kodiere ich nur noch mit dieser Einstellung wenn die die Source nur 3000 - 5000 kb/s hat nehme ich 21-22 Rf. Ich habe auf keinem meiner Player ein Problem damit, als Player am Fernseher habe ich die X-Box One mit dem normalen Mediaplayer, der Fernseher ist 10 Jahre alt. Auf dem Pc habe ich auch keine Probleme, nutze dort Vlc-Player.
Ich befürworte die 10 Bit Einstellung, weil ich durch Erfahrung mit Ausprobieren bessere Ergebnisse hatte und keine Probleme mit der Wiedergabe. Ich bin aber auch keine Maschine die so einen Film bis ins kleinste Detail zerlegen kann, was die Farben oder die Farbtiefe angeht. Wenn das Bild klar und Scharf auf dem Fernseher aussieht ist das für mich völlig okay. Ihr könnt das doch einfach mal ausprobieren und dann schauen wie es bei Euch funzt.
ich möchte auch meinen Senf zur aktuellen Umfrage mit dazu geben, ich habe einige Erfahrungen beim Encodieren gemacht mit 8 Bit als auch mit 10 Bit Farbtiefe, ich habe einen Film gehabt, da bekam ich als Ergebnis immer wieder das gleiche Bild von unschärfe bei einem Gesicht in Nahaufnahme, die Quelle hatte 9000 kb/s. Ich habe kodiert mit 20 - 24 Rf, 8 Bit in Medium und Superfast. Dann habe ich mal die Einstellung probiert mit 10Bit 24 Rf und superfast, ich hatte als Ergebnis nicht mehr die Unschärfe im Gesicht, das file war im Vergleich zu Medium nochmals 40Mb kleiner und die Encoding Geschwindikeit von 30 Minuten bei Medium auf 20 Minuten bei superfast reduziert, mit besserem Ergebnis, jedenfalls für meine Optik, seitdem kodiere ich nur noch mit dieser Einstellung wenn die die Source nur 3000 - 5000 kb/s hat nehme ich 21-22 Rf. Ich habe auf keinem meiner Player ein Problem damit, als Player am Fernseher habe ich die X-Box One mit dem normalen Mediaplayer, der Fernseher ist 10 Jahre alt. Auf dem Pc habe ich auch keine Probleme, nutze dort Vlc-Player.
Ich befürworte die 10 Bit Einstellung, weil ich durch Erfahrung mit Ausprobieren bessere Ergebnisse hatte und keine Probleme mit der Wiedergabe. Ich bin aber auch keine Maschine die so einen Film bis ins kleinste Detail zerlegen kann, was die Farben oder die Farbtiefe angeht. Wenn das Bild klar und Scharf auf dem Fernseher aussieht ist das für mich völlig okay. Ihr könnt das doch einfach mal ausprobieren und dann schauen wie es bei Euch funzt.
@FatBoySlim
Bitte nicht HDR mit 10bit verwechseln! Das sind unterschiedliche Dinge!
HDR ist High Dynamic Range. Ein erweiterter Kontrastumfang.
10bit Farbtiefe sind einfach nur mehr unterschiedliche Farben als 8bit.
Natürlich wird gerade bei HDR auf 10bit Farbtiefe gesetzt, aber 10bit gibt es mit als auch ohne HDR.
Einen HDR Film auf SDR Harware ansehen kann man vergessen; den kann man auch nicht einfach umwandeln. Bei HDR braucht man HDR Hardware. 10bit Filme hingegen kann man meist problemlos auf 8bit Hardware ansehen, solange der Abspieler damit umgehen kann.
Bitte nicht HDR mit 10bit verwechseln! Das sind unterschiedliche Dinge!
HDR ist High Dynamic Range. Ein erweiterter Kontrastumfang.
10bit Farbtiefe sind einfach nur mehr unterschiedliche Farben als 8bit.
Natürlich wird gerade bei HDR auf 10bit Farbtiefe gesetzt, aber 10bit gibt es mit als auch ohne HDR.
Einen HDR Film auf SDR Harware ansehen kann man vergessen; den kann man auch nicht einfach umwandeln. Bei HDR braucht man HDR Hardware. 10bit Filme hingegen kann man meist problemlos auf 8bit Hardware ansehen, solange der Abspieler damit umgehen kann.
Ich wüsste nicht was nun 10bit viel bringen sollte.
Der Codec hat beim codieren eine größere Auswahl an Farben zur Verfügung, das wars aber auch schon wieder. Die files werden dadaurch nicht kleiner, es wird vielleicht ein klein wenig genauer bei der Farbwiedergabe.
Bei mir persönlich laufen 10bit files, aber Unterschied kann ich keinen erkennen; nichtmal im Detail. Ich habe aber auch nur 8bit Monitore.
Man muss dazu sagen dass am Ende oft garnicht mehr Farben dargestellt werden. Bei zB Gamingmonitoren werden oft gerne nurmehr 7bit genutzt; fällt den meisten auch nicht auf. Manche Monitore können auch 10bit; die sind aber meist langsamer.
Nicht zu verwechseln übrigens mit HDR; das ist höherer Kontrastumfang. Und das sieht richtig Kacke aus wenn es die Hardware nicht hergibt.
10bit kann man machen, es wird vielleicht bei manchen Inkompatibilität bringen, aber auch wenn man die passende Hardware hat wirds nicht wirklich besser werden.
Ich sehe das ähnlich wie die Frage ob AC3 oder AAC. Die meisten werden keinen Unterschied bemerken.
Der Codec hat beim codieren eine größere Auswahl an Farben zur Verfügung, das wars aber auch schon wieder. Die files werden dadaurch nicht kleiner, es wird vielleicht ein klein wenig genauer bei der Farbwiedergabe.
Bei mir persönlich laufen 10bit files, aber Unterschied kann ich keinen erkennen; nichtmal im Detail. Ich habe aber auch nur 8bit Monitore.
Man muss dazu sagen dass am Ende oft garnicht mehr Farben dargestellt werden. Bei zB Gamingmonitoren werden oft gerne nurmehr 7bit genutzt; fällt den meisten auch nicht auf. Manche Monitore können auch 10bit; die sind aber meist langsamer.
Nicht zu verwechseln übrigens mit HDR; das ist höherer Kontrastumfang. Und das sieht richtig Kacke aus wenn es die Hardware nicht hergibt.
10bit kann man machen, es wird vielleicht bei manchen Inkompatibilität bringen, aber auch wenn man die passende Hardware hat wirds nicht wirklich besser werden.
Ich sehe das ähnlich wie die Frage ob AC3 oder AAC. Die meisten werden keinen Unterschied bemerken.
@ösi. Vielen Dank für Deinen Tip mit MediaInfo, damit gehts.
Hab hier mal drei Seiten zu Unterschied von 8Bit/10Bit, bzw. Vorteile von 10Bit ergo Erklärung der Formate HDR10, HDR10+, DolbyVision.
Die Seiten sind teilweise schon etwas alt, aber es wird ganz gut erklärt.
https://hifi.de/ratgeber/was-bringt-hdr-11562
https://bildschirm.de/hdr-technologien-im-ueberblick-hdr10-hdr10-plus-hlg-und-dolby-vision/
https://www.4kfilme.de/hdr-high-dynamic-range/
Dort werden auch Screenshots geboten, wo der Unterschied, tatsächlich signifikant deutlich, gezeigt wird.
All das nützt mir, mit meinem wohl nur 8Bit-fähigen Display allerdings gar nix, bzw. ist eher eine Verschlechterung der Quali für mich absehbar (hab grad den ersten 10Bit-Film bewusst getestet & bin dabei, weiteres auszuprobieren).
Meine Einschätzung soweit & auch an funxd:
Es wäre wahrscheinlich ein tolles zusätzliches Angebot für die (bestimmt mittlerweile vielen User) mit 10Bit fähigen Geräten! Sollte aber in jedem Fall als 10Bit in der Beschreibung ausgezeichnet werden!!
Da eh nur neuere Releases die höhere Farbtiefe unterstützen (teilweise Netflix, AmazonPrime, 4K-Blurays), würde sich das hier eh splitten in herkömmliche 8Bit & neue 10Bit.
Optimal wäre da natürlich, beide Versionen im jeweils möglichen Fall anzubieten.
Die Überlegung, voranzuschreiten & auch evtl. 10Bit anzubieten, finde ich grundsätzlich klasse!
Es sollte aber in Erwägung gezogen werden, dass viele User dies nicht errreicht, bzw. viele User noch nicht mal wissen, was auf sie zukommt.
Sehr freundliche, liebe Grüße!
Hab hier mal drei Seiten zu Unterschied von 8Bit/10Bit, bzw. Vorteile von 10Bit ergo Erklärung der Formate HDR10, HDR10+, DolbyVision.
Die Seiten sind teilweise schon etwas alt, aber es wird ganz gut erklärt.
https://hifi.de/ratgeber/was-bringt-hdr-11562
https://bildschirm.de/hdr-technologien-im-ueberblick-hdr10-hdr10-plus-hlg-und-dolby-vision/
https://www.4kfilme.de/hdr-high-dynamic-range/
Dort werden auch Screenshots geboten, wo der Unterschied, tatsächlich signifikant deutlich, gezeigt wird.
All das nützt mir, mit meinem wohl nur 8Bit-fähigen Display allerdings gar nix, bzw. ist eher eine Verschlechterung der Quali für mich absehbar (hab grad den ersten 10Bit-Film bewusst getestet & bin dabei, weiteres auszuprobieren).
Meine Einschätzung soweit & auch an funxd:
Es wäre wahrscheinlich ein tolles zusätzliches Angebot für die (bestimmt mittlerweile vielen User) mit 10Bit fähigen Geräten! Sollte aber in jedem Fall als 10Bit in der Beschreibung ausgezeichnet werden!!
Da eh nur neuere Releases die höhere Farbtiefe unterstützen (teilweise Netflix, AmazonPrime, 4K-Blurays), würde sich das hier eh splitten in herkömmliche 8Bit & neue 10Bit.
Optimal wäre da natürlich, beide Versionen im jeweils möglichen Fall anzubieten.
Die Überlegung, voranzuschreiten & auch evtl. 10Bit anzubieten, finde ich grundsätzlich klasse!
Es sollte aber in Erwägung gezogen werden, dass viele User dies nicht errreicht, bzw. viele User noch nicht mal wissen, was auf sie zukommt.
Sehr freundliche, liebe Grüße!
Für die Beantwortung der aktuellen Umfrage, müsste ich überhaupt wissen ob Fun überhaupt schon 10 Bit Sachen hat. Denn ich habe schon vor langer Zeit aufgehört auf anderen Plattformen zu laden und lade nur noch Fun Releases. Da weiß ich wenigsten das die Qualität passt.
Die Apple TVs 4K von mir dürften beim abspielen vermutlich keine Probleme haben aber ich habe noch nicht überall einen 4k Fernseher hinter der kleine Apple Box stehen. Hatte auch nicht vor da überall einen hinzustellen bzw. immer wird es vermutlich nicht mal gehen. Im Schlafzimmer steht im Schrank (welcher ein Billy ist) ein kleiner 22" TV der da optimal rein passt von der breite. So einen in 4K zu finden dürfte schwierig werden und bei der Entfernen zu dieser größe sieht Mann/Frau eh keinen Unterschied zu 1080p dann.
Die Apple TVs 4K von mir dürften beim abspielen vermutlich keine Probleme haben aber ich habe noch nicht überall einen 4k Fernseher hinter der kleine Apple Box stehen. Hatte auch nicht vor da überall einen hinzustellen bzw. immer wird es vermutlich nicht mal gehen. Im Schlafzimmer steht im Schrank (welcher ein Billy ist) ein kleiner 22" TV der da optimal rein passt von der breite. So einen in 4K zu finden dürfte schwierig werden und bei der Entfernen zu dieser größe sieht Mann/Frau eh keinen Unterschied zu 1080p dann.
Die aktuelle Umfrage ist ein bisschen schwierig zu beantworten, wenn man unterschiedliche Wiedergabegeräte hat ?
Mein alter FireTV-Stick spielt keine 10Bit-Videos ab, der neuere FireTV-Fernseher schon. Ist doof, kann man aber mit leben.
Anders bei HDR. Das läuft, wird aber sehr blass abgespielt wenn der Bildschirm es nicht hergibt. Für Encodes mal bei pahe schauen. Die haben bei aktuellen Filmen manchmal auch HDR (z.B. Godzilla vs. Kong) und bei Serien x265/10Bit (z.B. What We Do in the Shadows S03)
Mein alter FireTV-Stick spielt keine 10Bit-Videos ab, der neuere FireTV-Fernseher schon. Ist doof, kann man aber mit leben.
Anders bei HDR. Das läuft, wird aber sehr blass abgespielt wenn der Bildschirm es nicht hergibt. Für Encodes mal bei pahe schauen. Die haben bei aktuellen Filmen manchmal auch HDR (z.B. Godzilla vs. Kong) und bei Serien x265/10Bit (z.B. What We Do in the Shadows S03)
@Jack Bauer also das mit der "nur höhere Bitrate bringt bessere Qualität bei sound" stimmt so nicht. Ein besserer Codec kann natürlich die Bitrate bei gleichbleibender oder sogar besserer Qualität senken.
Bspw. vergleich von Opus/AAC/mp3 u.a. auf https://listening-test.coresv.net/results.htm
Also ich für meinen Teil ziehe zur Platzersparnis meist noch die engliches Tonspur aus dem Film (nutze ich eh nicht) und wandle die deutsche Tonspur auf 256kbps OPUS um bei 5.1, bei Stereo auf 128kbps OPUS. Keine Probleme mit der Qualität - und noch mal ein paarhundert MB gespart insgesamt.
Bspw. vergleich von Opus/AAC/mp3 u.a. auf https://listening-test.coresv.net/results.htm
Also ich für meinen Teil ziehe zur Platzersparnis meist noch die engliches Tonspur aus dem Film (nutze ich eh nicht) und wandle die deutsche Tonspur auf 256kbps OPUS um bei 5.1, bei Stereo auf 128kbps OPUS. Keine Probleme mit der Qualität - und noch mal ein paarhundert MB gespart insgesamt.
@Ösi - Danke, aber ca. 100 Klicks später habe ich immer noch keinen 10-Bit-Film gefunden. Hätte bitte mal jemand ein Beispiel?
@FatBoySlim: mit dem Tool MediaInfo wird (zumindest in der Baumstruktur) die Bit Tiefe angezeigt. Was der Unterschied von 8 und 10 bit bringt weiß ich nicht ? würde mich aber eh interessieren ?
Ne Frage, die mir schon gestern morgen kam, hatte nur vor der Arbeit nicht mehr die Zeit:
Wegen der aktuellen Umfrage, kann mir jemand sagen, wie ich die Farbtiefe eines vorliegenden Films für mich selbst herausfinde bzw. einsehen kann?
Habe noch paar Filme in Full-BluRay vorliegen & habe es mit Info, VLC, Handbrake, MKV-Toolnix versucht, die jeweilige Tiefe herauszufinden, aber keinen "Clue" gefunden.
Der Gedanke, der mir zu der aktuellen Umfrage daher noch verstärkt kam, war, dass Leute, die eh versiert sind & mit neuestem 4K Fernseher ausgestattet, natürlich gleich schön abstimmen können, dass sie keine Probleme haben.
Diejenigen, die womöglich Probleme haben, wissen aber gar nicht, wie sie das überhaupt testen können.
Mein eigenes Display hat 24 Bit Farbe, was ja wohl bedeutet, dass es nur 8 Bit Farbtiefe umsetzen kann. Nehme aber an, dass es auch eine höhere Farbtiefe durchlaufen lässt, von der ich dann einfach nix habe.
Bei meiner, zugegeben, zeitknappen Suche zu dem Thema, war ich irgendwo auf den Hinweis gestoßen, dass die Geräte, welche nicht die 10 oder gar 12 Bit umsetzen können, je nach Gerät, unterschiedliche Farbergebnisse als Reaktion auf die Nicht-Kompatibilität kreieren könnten.
Auch dieses lässt sich schwer nachprüfen/vergleichen, da man ja bei Nicht-Kompatibilität keinen Vergleich zu der Normalansicht des Film hat.
Wissenswerte & hilfreiche Profi-Statements zu dem Thema würde ich daher sehr begrüßen!
Vielen Dank an Euch alle, hoffe auf mehr! & sehr liebe Grüße!
Wegen der aktuellen Umfrage, kann mir jemand sagen, wie ich die Farbtiefe eines vorliegenden Films für mich selbst herausfinde bzw. einsehen kann?
Habe noch paar Filme in Full-BluRay vorliegen & habe es mit Info, VLC, Handbrake, MKV-Toolnix versucht, die jeweilige Tiefe herauszufinden, aber keinen "Clue" gefunden.
Der Gedanke, der mir zu der aktuellen Umfrage daher noch verstärkt kam, war, dass Leute, die eh versiert sind & mit neuestem 4K Fernseher ausgestattet, natürlich gleich schön abstimmen können, dass sie keine Probleme haben.
Diejenigen, die womöglich Probleme haben, wissen aber gar nicht, wie sie das überhaupt testen können.
Mein eigenes Display hat 24 Bit Farbe, was ja wohl bedeutet, dass es nur 8 Bit Farbtiefe umsetzen kann. Nehme aber an, dass es auch eine höhere Farbtiefe durchlaufen lässt, von der ich dann einfach nix habe.
Bei meiner, zugegeben, zeitknappen Suche zu dem Thema, war ich irgendwo auf den Hinweis gestoßen, dass die Geräte, welche nicht die 10 oder gar 12 Bit umsetzen können, je nach Gerät, unterschiedliche Farbergebnisse als Reaktion auf die Nicht-Kompatibilität kreieren könnten.
Auch dieses lässt sich schwer nachprüfen/vergleichen, da man ja bei Nicht-Kompatibilität keinen Vergleich zu der Normalansicht des Film hat.
Wissenswerte & hilfreiche Profi-Statements zu dem Thema würde ich daher sehr begrüßen!
Vielen Dank an Euch alle, hoffe auf mehr! & sehr liebe Grüße!