8 Bit Video vs 10 Bit Video - Unterschiede

8bit vs 10bit

Das Thema wurde ab und zu mal hier erwähnt, mal in 2011, dann von Zest in 2012, aber das betrifft nicht wirklich mein Anliegen. Das letze was JCD meinte:
“Weswegen ich auch noch von 10bit für AMVs abraten würde.” - das war in 2011. Was meint ihr jetzt , 8Bit RAWS download oder 10Bit raws downloaden und die dann in die lossless umcodieren, oder ist es egal (man würde eh nichts an Quali merken)? Bitte weiter lesen…

Stimmt es eigentlich, was ich so in verschiedenen Foren lese, dass 10 Bit Videos, bessere Videoqualität haben und dazu noch kleiner sind als die 8 Bit Videodateien, WEIL wenn die Source des Videos in 10Bit vorliegt und diese dann auf 8Bit
runtergerechnet wird entsteht bei fast allen Filtern ein rauschen.
(Stichwort Dithering) Dieses wird dann vom Codec meist als zusätzliche
Bildinformation interpretiert (auch wenn fürs menschliche Auge kaum
sichtbar ist) ? Aber theoretisch sollten die 10 Bit Videos, aufgrund mehr Informationsgehalt, auch grösser sein, irgendwie komisch, dass die Animes in 10Bit besser aussehen sollten als die 8Bit. Ich meine wir, AMV Editoren, rendern die Videos eh zurück in die lossless, nimmt es damit automatisch nicht die best mögliche Farbqualität an?
Was denken die Profis hier darüber? (Zitate aus dem anderen Forum, ist ein Anime Sub Forum)

Die Qualität des Videos:
“Bei 10 Bit Releases gibt es eine größere Farbtiefe, also einen größeren
Umfang an verschiedenen RGB Farbtönen, sie haben also sozusagen eine
bessere Videoqualität…”
Die Erklärung dazu:
"Pixel werden mit 8 Bit pro Farbe dargestellt. Da drei Farben zum mischen
benutzt werden, kommt man auf 2^24 = ~16 Mio Farben. Was i.A. als
Grenze dessen, was das normale Auge sehen kann, betrachtet wird.

Nimmt man 10 Bit pro Farbkanal, komt man auf 2^30 = ~107 Mio Farben. Für
Produktionsmaster vieleicht sinnvoll, um Reserven zu haben, für den
Endverbraucher hoffnungslos oversized."

Information von:
http://chinurarete-subs.org/forum/showthread.php?tid=199

Ein Typ von Gulliboard meinte es wäre sinnlos mit 10Bit Video zu arbeiten, da man den Unterschied kaum merkt (in 99,9 % der Fälle), obwohl die 10Bit Version die feinen Farbverläufe besser auflösen kann, als die 8Bit Version.

Fragen zusammengefasst:

  1. Wird es einen Unterschied geben, zwischen 8bit und 10bit Video, wenn ich diese in die lossless Lagarith avi rendere und dann damit weiter arbeite? Es würde unmengen an Zeit fressen, um einen exakt gleiches 8bit und 10bit AMV zu erstellen und zu vergleichen, vllt hat sich schon jemand damit beschäftigt.
  2. Allgemein, sollte man von 10bit vllt die Finger lassen?
  3. Für die Sony Vegas Nutzer: Habt ihr bei Porjekteigenschaften>>Pixelformat: 8-Bit stehen oder doch etwas anderes? Ich habe 32-Bit ausprobiert und nichts gemerkt, irgendwie traurig… ;(

Seit wann kann Lagarith 10 bit Farbtiefe? Kann das dein Monitor überhaupt?

Jo stimmt. Alsoo Lag mag 10bit nicht, obwohl es geht in “10bit” lag umzuwandeln, aber mit haufen bugs -.-, deswegen bleibe ich bei 8bit ^^, dann spinnen manche Programme wegen 10bit Videos!!! Vllt irgendwann mal in der Zukunft probiere ich mal ein AMV mit 60 fps und 10bit zu machen, ob das wirklich was bringt ist eine andere Frage xD, ist nur mein persönliches Neugier ^^.
Ich bin mir net 100 % sicher ob mein jetziger Monitor das kann (hab nicht die tatsächliche Farbtiefe nicht nachgeschaut, die er unterstützt, hat mich nicht besonders interessiert, da alles super aussieht ^^), aber mein zukunftiger in ein paar Wochen wird das definitiv:
Eizo Foris FG2421 ,es könnte aber sein, dass ich vllt doch einen Monitor von Samsung oder Asus holle, bin mir da noch net ganz sicher, schaue mich noch um.

Gegenfrage: Unterstützt nicht jeder Monitor 10 bit Farbtiefe, der in ab >2012 gekauft wurde?