Gehe zu Seite: |vorherige| Erste 2 3 4 5 6 7 8 Letzte |nächste|

Alles zum Thema Dolby Vision

+A -A
Autor
Beitrag
RCZ
Inventar
#151 erstellt: 05. Aug 2017, 11:07
Super, danke für das Video.
Es ist unglaublich wie kompliziert es ist, HDR zu Hause richtig einzustellen, zumal man eben nicht weiß auf was die UHD Disc gemastert ist und die Meisten nur in HDR10 erschienen sind.
Dolby Vision scheint recht gut zu funktionieren, dass setzt aber wieder den richtigen TV, also nur LG und Player voraus (Oppo). Alles andere ist, zumndest Stand heute, meiner Meinung nach eine Katastrophe.
meistro.b
Inventar
#152 erstellt: 05. Aug 2017, 12:22
Du hast SONY vergessen
Die TVs bekommen ein Update für Dolby Vision
willwaswissen
Inventar
#153 erstellt: 05. Aug 2017, 13:01
Ja, das Video bestätigt auch mein Chaos beim mühsamen Herausfinden der besten HDR-Bildeinstellungen.
HicksandHudson
Inventar
#154 erstellt: 05. Aug 2017, 13:42
Aber ganz ehrlich. ....das kann doch nicht sein, dass ich bei jedem Film rumstellen muss?
Ist doch eh schon aufwendig genug, den TV überhaupt sauber hinzukriegen von den Einstellungen her.
rockopa
Hat sich gelöscht
#155 erstellt: 05. Aug 2017, 16:13
Ich habe nur eine Einstellung wenn ich Filme mit HDR anschaue. Ich als Laie kann da sowieso keinen Unterschied feststellen wenn ich bei jedem Film was anderes einstellen muss. Dazu fehlt mir einfach das Fachwissen.
HicksandHudson
Inventar
#156 erstellt: 05. Aug 2017, 16:22
Danke.
Das gibt mir Hoffnung
langsaam1
Inventar
#157 erstellt: 05. Aug 2017, 17:14
offtopic (ein wenig) da hier DV das Thema ist ...
HDR und die Anderen Varaiationen ist keine !!!! " wie find ich persönlich das mir passende Bild " !!!
Sondern - Soll SO gesehen werden Wie ist Vorliegt !!!

Bemängel ich schon von Anfang der Diskussion:
Die beteiligten Geräte MÜSSEN sich bei "Erkennen" der jeweiligen Kennung (HDR DV HLG etc.) in einen Festen, vom Nutzer NICHT veränderbaren Modus schalten.

(Samsung hatte zumindest dies als Option in den ersten HDR fähigen TV Geräten, war dem Nutzer aber zu umständlich und er begriff es nicht.
Wer fummelt auch in 3 Untermenüs VOR und NACH der HDR Zuspielung herum ..
um den Modus jeweils zu Aktivieren und zu deaktivieren ...
geschweige denn das dem Nutzer überhaupt diese Option / Funktion bewusst ist.)

- Panaosnic bietet eine ähnliche Option in den hochpreis Modelle auch an > festen HDR Modus

- für DV fehlt so ein Modus noch, bei LG kann man trotz DV Mode noch an Einstellunegn "herumfummeln"


[Beitrag von langsaam1 am 05. Aug 2017, 17:20 bearbeitet]
michael4
Stammgast
#158 erstellt: 05. Aug 2017, 22:18
Sehe ich nicht so, zumindest nicht wenn es nicht noch ein Art Expertenmodus oder so gäbe. Wenn alle TV einer Serie 100% gleich wären, ok. Aber da es hier zig Unterschiede gibt (verschiedene Panelhersteller, Revisionen usw.), wäre das nichts für mich. Schön wäre, wenn man 1x kalibriert, sprich Weißabgleich usw., und sich die Bildmodi dann adaptiv darauf anpassen würden.
George_Lucas
Inventar
#159 erstellt: 06. Aug 2017, 23:06

langsaam1 (Beitrag #157) schrieb:

Bemängel ich schon von Anfang der Diskussion:
Die beteiligten Geräte MÜSSEN sich bei "Erkennen" der jeweiligen Kennung (HDR DV HLG etc.) in einen Festen, vom Nutzer NICHT veränderbaren Modus schalten.

Das sehe ich in Bezug auf HDR anders, weil viele Wiedergabegeräte die erforderliche Leuchtdichte nicht erfüllen, der Nutzer bei Tag HDR als zu dunkel empfinden kann, und die max. Leuchtdichte (z. B. 1000 Nits) vom Kontent oftmals nicht ausgeschöpft wird.

Hier empfinde ich individuelle Anpassungen so lange sinnvoll, bis zumindest die Wiedergabegeräte die erforderliche Leuchtdichte besitzen.
RCZ
Inventar
#160 erstellt: 07. Aug 2017, 07:18
Das Problem liegt doch eher darin, dass die Filme sehr dunkel gemastert werden, dass wird auch im Video erklärt. Selbst wenn dein TV 10.000 nits schaffen könnte, die Hälfte des Films aber mit max. 80-120nits gemastert ist, dann siehst du halt in eben diesen Szenen max. 80-120nits. Lediglich einzelne (kleine) Bildbereiche haben z.b. 3000nits. Dennoch ist das Bild im Ganzen recht dunkel, was in einem hellen Raum tagsüber zu wenig ist. Und genau das wird dem otto-normal-gucker nicht gefallen und er möchte gegenregeln. Das ist er ja bisher auch so gewohnt.
Chris3636
Inventar
#161 erstellt: 07. Aug 2017, 16:15
Ich bin ja gespannt , ob Hdr10+ ein uhd blu Ray standard wird. Und nicht nur bei Amazon vorgesehen ist. So wie Es Im Moment aussieht wird Dolby Vision das Rennes machen.
Henro
Stammgast
#162 erstellt: 07. Aug 2017, 16:28
naja mit bisher 2 UHDs ist der Vorsprung nicht besonders groß. Die ganzen großspurigen Ankündigungen nehme ich auch nicht mehr so ernst, seitdem Disney bei GoG2 einfach mal zurück gerudert ist.
rockopa
Hat sich gelöscht
#163 erstellt: 07. Aug 2017, 16:34
Das glaube ich momentan nicht das Dolby Vision das Rennen macht.
Chris3636
Inventar
#164 erstellt: 07. Aug 2017, 17:32
Wenn hdr10+ Es auf die ultra blu ray schafft und die großen studios Mit ziehen dann wird Es spannend, aber so Lang das nicht geschieht. + Punkt für Dolby. Mir ist es endeffekt egal. Nach der ifa sind wir Glaub ich schlauer.
HicksandHudson
Inventar
#165 erstellt: 07. Aug 2017, 18:31
Ganz ehrlich... eigentlich sollten wir aktuell alle gar keinen HDR-TV kaufen oder das Format irgendwie nutzen.....solange bis Klarheit herrscht
berti86
Hat sich gelöscht
#166 erstellt: 07. Aug 2017, 18:43

rockopa (Beitrag #163) schrieb:
Das glaube ich momentan nicht das Dolby Vision das Rennen macht.


Ich Glaube schon.
Bei den Hollywood Studios ist nur noch 20th Century Fox das einzige Hollywood Studio was sich noch gegen Dolby Vision stellt. Alle anderen haben sich bereits für Dolby Vision entschieden.
Disney gab am Wochenende bei einem Presse-Event bekannt, in Zukunft bei UHD Blu-Ray auch auf Dolby Vision zu setzten.

So sieht es jetzt seit dem Wochenende Offiziell aus mit Dolby Vision in Zukunft:

Dolby Vision im Streaming:
Warner Bros
MGM
Universal Pictures
Sony Pictures
Paramount Pictures
Walt Disney

Dolby Vision bei UHD Blu-Ray:
Warner Bros
Universal Pictures
Sony Pictures
Paramount Pictures
Walt Disney
Lionsgate


[Beitrag von berti86 am 07. Aug 2017, 18:44 bearbeitet]
TheSoundAuthority
Inventar
#167 erstellt: 07. Aug 2017, 18:44

naja mit bisher 2 UHDs ist der Vorsprung nicht besonders groß. Die ganzen großspurigen Ankündigungen nehme ich auch nicht mehr so ernst, seitdem Disney bei GoG2 einfach mal zurück gerudert ist.


Es gibt keine finale Software, um die Master für UHDs zu erstellen - daher gibt es noch keine Filme.
Diese befindet sich aber derzeit in der Finalisierung.



Ganz ehrlich... eigentlich sollten wir aktuell alle gar keinen HDR-TV kaufen oder das Format irgendwie nutzen.....solange bis Klarheit herrscht


Wenn du danach gehst, darfst du nie kaufen...

"HD Ready" - "Full HD" - "Full HD 3D" - "Ultra HD" - "Ultra HD Premium" - "HDR10" - "HDR+" - "Dolby Vision" ....
Chris3636
Inventar
#168 erstellt: 07. Aug 2017, 18:58

b

HicksandHudson (Beitrag #165) schrieb:
Ganz ehrlich... eigentlich sollten wir aktuell alle gar keinen HDR-TV kaufen oder das Format irgendwie nutzen.....solange bis Klarheit herrscht :X


Ich wollte eigentlich zu schlagen, aber ich halt mich bis jetzt erfolgreich zurück... Ich will keine dunklen.bilder haben. Das war ein Grund warum ich mit dem kalibrieren angefangen hab, um alles details zu sehen.

Finde das gerade bei dunklen bilder spannend was man alles sehen kann.
Klipsch-RF7II
Inventar
#169 erstellt: 07. Aug 2017, 19:02
Warum erzählen denn die TV Besitzer so viel von dunklen Bildern? Sind die Presets da wirklich so schlecht? Kann man denn garnichts an der Gamma Kurve drehen?
berti86
Hat sich gelöscht
#170 erstellt: 14. Aug 2017, 23:07
Transformers: The Last Knight wird Paramounts erster UHD Blu-ray Release in Dolby Vision

http://www.blu-ray.com/news/?id=21883
langsaam1
Inventar
#171 erstellt: 15. Aug 2017, 00:54
offtopic:
siehe Post 159 HDR Spec diesen ominösen 1000 Nits
TV hatten Anfangs um 350-400 Nits die aktuelle ToppModelle und nur die liegen aktuell um die 600-700 Nits Theorie.
- das Film HDR kann man nicht direkt mit Photo Bild HDR vergleichen,
aber um die "Lichtdifferenz" herauszuholen, je dunkler Film und Umgebung, je "idealer" kommt die Differenz heraus.
Da aber im Grossenteil unbekannt ist mit welchem Nits Wert die HDR Kontent erstellt bzw. dann gesendet wird ist kaum nachvollziehbar.
Bespiel der Anbieter mastert tatsächlich mit diesen 1000 Nits ... und der TV kann davon gerade einmal 400 "umsetzten" > es wirkt zu dunkel
UND es ist eben nicht so wie es vom Anbieter / Produzen bei Betrachtung angedacht bzw. gewünscht währ.

Inwieweit sich dies bei DV auswirkt muss man noch beobachten.
hagge
Inventar
#172 erstellt: 15. Aug 2017, 07:45

Klipsch-RF7II (Beitrag #169) schrieb:
Warum erzählen denn die TV Besitzer so viel von dunklen Bildern? Sind die Presets da wirklich so schlecht? Kann man denn garnichts an der Gamma Kurve drehen?

Das Problem entsteht genau dann, wenn ein TV die vom Film per Metadaten geforderten Helligkeiten nicht erfüllen kann. Dann gibt es aber nicht nur bei HDR10 Probleme, auch die Verfahren mit dynamischen Metadaten, also Dolby Vision oder HDR10+, können nicht alle Probleme beseitigen. Ich habe das gestern mal im Thread "OLED gegen LCD" erklärt und kann es gerne auch hier nochmal kurz ausführen.

Die Frage ist, welche Helligkeit eine HDR-Scheibe fordert. Und da kann es Probleme geben. Ist doch logisch. Die HDR10-Scheibe sagt: "Ich würde gerne bis zu 1000 cd/m² Helligkeit haben." Ein heller LCD-TV wie der ZD9 von Sony sagt: "Alles klar, kein Problem" und dann zeigt er alles 1:1 so an, wie die HDR10-Scheibe das will. Ergebnis: perfekte Darstellung.

Ein TV wie ein OLED muss aber sagen: "Hups, 1000 cd/m² kann ich nicht, ich kann nur 500 cd/m²". Und jetzt muss er eben anfangen, Kompromisse einzugehen, sprich ein Tonemapping-Verfahren einzusetzen.

  • Möglichkeit 1
    Er halbiert alle Helligkeiten auf die Hälfte, so dass wenn die Stelle mit 1000 cd/m² kommt, er sie dann mit seiner eigenen maximalen Helligkeit von 500 cd/m² anzeigen kann. Das heißt aber, dass er den gesamten Film viel zu dunkel anzeigt, auch die Stellen, wo gar keine 1000 cd/m² vorkommen.

  • Möglichkeit 2
    Er zeigt trotzdem alle Helligkeiten wie gefordert an. Das heißt aber, dass alle Stellen im Film, die heller als 500 cd/m² sind, geclipped werden.

  • Möglichkeit 3
    Er verzerrt die Helligkeitskurve. Das heißt er dimmt zwar die Helligkeit, aber nicht-linear, je heller die Stelle, desto mehr wird gedimmt, je dunkler die Stelle, desto weniger wird gedimmt. Das heißt die Dynamik der Bildes wird ebenfalls stark gestaucht. Absolut gesehen sind helle Szenen viel zu dunkel, dunkle Szenen immer noch tendenziell zu dunkel, aber nicht mehr so stark, wie oben bei Variante 1.

  • Möglichkeit 4
    Er verhält sich je nach Szene dynamisch. Ist eine Szene hell, wird abgedunkelt. Ist die Szene dunkel, kann die Helligkeit bleiben oder sogar noch aufgehellt werden. Das ist, was Active HDR von LG macht. Das heißt aber auch, dass die Szenen in der Helligkeit schwanken können. Nehmen wir mal an, eine Szene beginnt recht dunkel. Dann hellt der TV die Szene erst einmal kräftig auf. Auf einmal kommt aber ein Blitz, der sehr hohe Helligkeit abfordert. Entweder muss der TV nun doch kurz clippen, oder er muss sehr drastisch und schnell an der Mappingkurve drehen, um nun doch die hohe Helligkeit anzuzeigen. Das heißt ein Objekt, das eben noch durch die Aufhellung recht hell war, ist ab nun mit einem Schlag ohne Aufhellung ziemlich dunkel, obwohl sich am Helligkeitswert dieses Objekts im Film überhaupt nichts geändert hat und es auch während dem Blitz hätte gleich hell bleiben müssen. Wenn der Blitz vorüber ist, greift dann so langsam wieder die Automatik und hellt die Szene nach und nach wieder auf. Letztendlich ist das auch nichts anderes als eine Dynamikkompression, die sich zudem noch ständig ändert.


Wie man sieht ist das Ergebnis sehr oft ein zu dunkles Bild über große Strecken des Films. Es stellt sich also die Frage: Ist wirklich der Film so dunkel gemastert, oder wird er nur so dunkel angezeigt, weil der TV einen Kompromiss bei der Anzeige machen muss? Ich behaupte vermute letzteres.

Wohlgemerkt, das ist nicht per se ein Problem von OLED. Auch ein LCD wie der ZD9 kommt in genau die gleiche Breduille, wenn er einen Film anzeigen soll, der über die 1800 cd/m² hinaus geht, die er maximal kann. Aber bei ihm passiert das eben nur bei Filmen, die für mehr als 1800 cd/m² gemastert sind, alle Filme, die darunter liegen, klappen hervorragend. Und die meisten HDR10-Filme waren bisher für 1000 cd/m² ausgelegt. Insofern klappt es bei ihm mit sehr vielen Filmen sehr gut. Selbst bei Filmen mit 2000 cd/m², die also etwas über sein Maximum hinausgehen, wird das noch halbwegs ordentlich aussehen. Erst bei Filmen mit 4000 cd/m² oder mehr wird es dann auch für ihn schwer. Die sind zur Zeit aber noch recht dünn gesät, werden aber mit Dolby Vision vermehrt kommen, weil die allesamt meines Wissens für mindestens 4000 cd/m² abgemischt sind.

Bei OLED passiert das aber bei allen Filmen, die über 500 cd/m² hinausgehen. Und da alle HDR10-Filme bisher mit mindestens 1000 cd/m² gemastert sind, trifft es bei OLED also bei 100% aller HDR10-Scheiben zu, dass der Film nicht sauber ohne Tonemapping angezeigt werden kann.

Wie schlägt sich nun Dolby Vision? Im Prinzip gibt es dort genau das gleiche Problem. Nur gibt es dort dynamische Metadaten. Das heißt die maximale Helligkeit muss nicht wie bei HDR10 schon am Anfang des Films für den ganzen Film vorgegeben werden, sondern kann Szene für Szene neu eingestellt werden. Das heißt der Film sagt selbst, in welchen Szenen welche maximale Helligkeit vorkommen wird Dann muss der TV nicht mehr raten, wann er die Dynamik wie verbiegt, sondern er kann sich Szene für Szene an den Angaben des Films orientieren. Wenn nun aber ein Film wie "Ich einfach unverbesserlich" in fast allen Szenen auch die volle Helligkeit abfordert, dann bringen dynamische Metadaten halt auch wieder nichts. Darum ist hier der Unterschied zwischen HDR10 und Dolby Vision so gering. Wenn aber der Film in großen Bereichen stockfinster ist, wie bei "Resident Evil" und nur in wenigen Szenen die volle Helligkeit abruft, dann bringen dynamische Metadaten tatsächlich was, weil dann der TV in den dunklen Szenen aufhellen kann (bzw. weniger abdunkeln muss).

Das hat also alles gar nichts mit dem Format der HDR-Scheiben zu tun, sondern nur mit dem Tonemapping beim Abspielen, wenn der TV das nicht kann, was die Scheibe fordert. Kann er es, ist es völlig Wurst, ob HDR10 oder Dolby Vision oder HDR10+. "HDR10 ist eine absolute Katastrophe" wie im obigen Video gesagt wird, ist also Blödsinn. Es ist nur ein Problem für Geräte, die die geforderte Helligkeit nicht können. Dynamische Metadaten sind wie gerade gezeigt auch kein Allheilmittel. Auch sie bringen den TV ja nicht plötzlich dazu, dass er bessere Helligkeit kann. Sie ermöglichen nur, dass der TV in den dann als dunkel gekennzeichneten Szenen weniger "schlecht" sein muss. Tonemapping bedeutet dann aber trotzdem immer noch, dass gleiche Helligkeiten im Film in unterschiedlichen Szenen unterschiedlich hell dargestellt werden, je nach Mapping in dieser Szene. Also alles andere als optimal und nicht das, was eigentlich erreicht werden soll, nämlich dass endlich die "korrekten" Helligkeiten angezeigt werden.

Und vom TV generierte dynamische Verfahren wie "Active HDR" sind halt auch nur ein Kompromiss, der sich oft in schwankenden Helligkeiten sichtbar machen wird. Ob man das dann besser oder schlechter als eine der anderen drei Kompromisslösungen findet, das ist dann wirklich Geschmacksache. Bei einem Shootout, wo man vermutlich Szene für Szene den Film anhand von Standbildern vergleicht, da mag das noch recht gut wirken. Aber wenn der Film dann in normalem Tempo läuft und dann ständig die Helligkeit pumpt, dann ist das auch nicht mehr so toll.


langsaam1 (Beitrag #157) schrieb:
Die beteiligten Geräte MÜSSEN sich bei "Erkennen" der jeweiligen Kennung (HDR DV HLG etc.) in einen Festen, vom Nutzer NICHT veränderbaren Modus schalten.

Und aus den genannten Gründen ist es eben genau *nicht* sinnvoll, dem Zuschauer da keine Wahl mehr zu überlassen. Zumindest so lange die TV-Geräte die geforderte Helligkeit nicht liefern können. Dann sollte er zumindest die Wahl haben, welcher Kompromiss zur Anzeige genutzt wird.

Wenn dann mal alle Anzeigegeräte 10.000 nits können, dann können wir darüber reden, ob man die Einstellmöglichkeiten wieder wegnimmt. Oder zumindest einen "Originalmodus" etabliert, der eben nichts mehr verstellt und rumrechnet. Bis dahin machen aber Einstellmöglichkeiten durchaus Sinn, um den notwendigen Kompromissen beim Tonemapping entgegen wirken zu können.

Gruß,

Hagge


[Beitrag von hagge am 15. Aug 2017, 10:10 bearbeitet]
norbert.s
Inventar
#173 erstellt: 15. Aug 2017, 08:05

hagge (Beitrag #172) schrieb:
Wie man sieht ist das Ergebnis sehr oft ein zu dunkles Bild über große Strecken des Films. Es stellt sich also die Frage: Ist wirklich der Film so dunkel gemastert, oder wird er nur so dunkel angezeigt, weil der TV einen Kompromiss bei der Anzeige machen muss? Ich behaupte letzteres.

Du brauchst hier gar nichts zu behaupten, da die Transferkurven allesamt bereits nachgemessen wurden (für HDR10). Da haben wir es also bereits Schwarz auf Weiß.

Die übliche Transferkurve für Master mit 1000 Nits (bei LG ab einem Softwareupdate bei den 2016er) lässt unten herum bis ca. 200-400 cd/m² alles "original". Erst darüber wird ein Soft-Clipping" durchgeführt. Da unten herum ist also nichts zu dunkel. Diverse optionale Bildeinstellungen für abweichendes Verhalten lasse ich einmal außen vor (z.B. Active HDR, Dynamischer Kontrast, Sony-spezial usw) und mangels Messbarkeit auch DV.

Typisch für LG und Panasonic 1000:
170815-0001
170815-0002

Dort wo es darauf ankommt und was Klipsch-RF7II meint, dort sind die Master auf 1000 Nits einfach durchaus HDR-typisch relativ zu SDR recht dunkel abgemischt. Bei Master auf 4000 Nits wird es dann windiger. Panasonic hält die Transferkurve weiter, LG verlässt sie unten herum.

Bei DV wird es komplizierter. Das ist hier auch das Thema vom Thread.

Servus


[Beitrag von norbert.s am 15. Aug 2017, 09:52 bearbeitet]
Chris3636
Inventar
#174 erstellt: 15. Aug 2017, 09:24
Also wie ich das verstanden habe gelten Helligkeitsspitzen bis zu 10000nits. Die meisten Filme werden aber zur Zeit mit 1000 nits oder mit 4000nits gemastert.
Beispiel am Panasonic EZW1004 optimal für 4000 nits Hdr Filme.

Das heißt doch nur das die Helligkeit auf der Grautreppe verschoben wurden ist und das absolute Weiß bei 4000 nits ist. Da stellt der Tv das HDR Bild richtig da, nichts ist zu dunkel. Dann treten keine großen Unterschiede zu Dolby Vision mehr auf.
Bei 1000 nits Filme hat der Tv so seine Probleme, da die Grautreppe das absolute weiss bei 4000 nits hat. Und nicht bei 1000 nits.
So hier müsste die Grautreppe anhand von einer Kalibrierung wieder neu eingestellt werden, sodaß der Weiß Wert in der Grautreppe bei 1000 nits liegt.
Somit wären die Filme auch wieder nicht zu Dunkel.

Jetzt meine Frage an alle erfahrenen Kalibrierer: Ist das so richtig?


Wenn das der Fall ist müsste doch nur der Tv auf 4000 nits und auf 1000 nits Filme richtig kalibriert sein, und schon hätte mein kein Bild das zu dunkel ist.
Und theoretisch brauchte man zur Zeit kein Dolby Vision mehr.
norbert.s
Inventar
#175 erstellt: 15. Aug 2017, 09:38
Der Geräte haben bereits unterschiedliche Transferkurven für 1000 und 4000 integriert. Je nach dem was die statischen Metadaten des Mediums an Information liefern. Mit 1000 gibt es definitiv weniger "Probleme" als mit 4000, da der Fernseher trotzdem so oder so nur um die 700 kann und bei 4000 das Soft-Clipping logischerweise früher losgehen muss, wenn man bis 4000 ein Hard-Clipping vermeiden will.

Panasonic 1000:
170815-0002
Die offizielle Referenzkurve ST.2084 PQ EOTF wird bis ca. 400 eingehalten.

Panasonic 4000:
170815-0003
Die offizielle Referenzkurve ST.2084 PQ EOTF wird bis ca. 300 eingehalten.

LG 1000:
170815-0001
Die offizielle Referenzkurve ST.2084 PQ EOTF wird bis ca. 400 eingehalten.

LG 4000:
170815-0004
Die offizielle Referenzkurve ST.2084 PQ EOTF wird gar nicht eingehalten. Hier versagt der LG. Update ist denkbar.

DV ist momentan aufgrund der Dynamik der Transferkurve nicht messbar. Alle Grafiken gelten für HDR10.

Servus


[Beitrag von norbert.s am 15. Aug 2017, 10:06 bearbeitet]
hagge
Inventar
#176 erstellt: 15. Aug 2017, 10:11

norbert.s (Beitrag #173) schrieb:
Die übliche Transferkurve (bei LG ab einem Softwareupdate bei den 2016er) lässt unten herum bis ca. 200-400 cd/m² alles "original". Erst darüber wird ein Soft-Clipping" durchgeführt. Da unten herum ist also nichts zu dunkel.

Also bedeutet das, dass die LG-Leute vor dem Software-Update vielleicht Möglichkeit 1 gewählt hatten. Nachdem sich viele Leute beschwert haben, dass der Film zu dunkel ist, haben Sie auf Möglichkeit 2 gewechselt. Also alle hellen Stellen werden geclipped, aber zumindest kann nun niemand mehr sagen, dass die dunklen Stellen zu dunkel sind. Und weil das ganz offensichtlich auch nicht optimal war, haben sie nun 2017 als weitere Alternative Active HDR eingeführt, also Möglichkeit 4.

Und immer noch kann ich nicht sehen, dass ich irgend etwas Falsches gesagt hätte. OK, ich hätte vielleicht "ich vermute letzteres" und nicht "ich behaupte letzteres" sagen sollen. Gut, habe ich korrigiert.


Dort wo es darauf ankommt und was Klipsch-RF7II meint, dort sind die Master einfach durchaus HDR-typisch relativ zu SDR recht dunkel abgemischt.

Dann soll es aber so sein. Dann ist der Film nicht in HDR zu dunkel, sondern war früher bei SDR zu hell. Was ja auch logisch ist. Wenn sich in einem Film viel bei unter einer gewissen Helligkeitsschranke, sagen wir mal 0,1 cd/m² abspielen soll, dann hat man bei SDR nur noch eine Handvoll Helligkeitsstufen zur Verfügung. Die reichen aber nicht mehr, um alle Details darzustellen. Also musste man zwangsweise oft solche dunklen Szenen aufhellen, damit man wenigstens ein paar mehr Helligkeitsstufen bekommt. Bei HDR hat man aber auch genug Helligkeitsstufen, ohne dass man aufhellen muss. Folglich ist der Film *dann* tatsächlich so, wie es ursprünglich gedacht war.

Gruß,

Hagge
HicksandHudson
Inventar
#177 erstellt: 15. Aug 2017, 10:15
Es zählt bei den meisten Leuten aber im Endeffekt nur der persönliche Eindruck und wenn jemand es nicht gut findet, dass ein Film auf HDR dunkler ist als auf Blu Ray, dann kann ich verstehen, dass das enttäuschend ist.....da bringt es auch nix, wenn es so "original" ist oder "richtig".
Es muss "gut aussehen" für einen selbst und angenehm für die Augen sein.

Die Mehrheit empfindet HDR10-Filme für zu dunkel und Dolby Vision schafft hier zumindest Abhilfe.
norbert.s
Inventar
#178 erstellt: 15. Aug 2017, 10:35

hagge (Beitrag #176) schrieb:
Also bedeutet das, dass die LG-Leute vor dem Software-Update vielleicht Möglichkeit 1 gewählt hatten.

In keiner Weise.
So war es vorher:
170815-0005


Und immer noch kann ich nicht sehen, dass ich irgend etwas Falsches gesagt hätte.

Ich habe nur gemeint, dass es statt Behauptungen auch Fakten gibt.
Diese Fakten belegen vieles was Du schreibst und teilweise wird auch einiges widerlegt.


Dann soll es aber so sein. Dann ist der Film nicht in HDR zu dunkel, sondern war früher bei SDR zu hell. Was ja auch logisch ist. Wenn sich in einem Film viel bei unter einer gewissen Helligkeitsschranke, sagen wir mal 0,1 cd/m² abspielen soll, dann hat man bei SDR nur noch eine Handvoll Helligkeitsstufen zur Verfügung. Die reichen aber nicht mehr, um alle Details darzustellen. Also musste man zwangsweise oft solche dunklen Szenen aufhellen, damit man wenigstens ein paar mehr Helligkeitsstufen bekommt. Bei HDR hat man aber auch genug Helligkeitsstufen, ohne dass man aufhellen muss.

Auch hier wieder Halbe/Halbe von Dir. ;-)
SDR ist vom Mastering üblicherweise für einen Weißpunkt von 100 cd/m² und Gamma 2.4 ausgelegt. Würden das alle User auch einstellen, dann wäre es auch hier vielen Usern ebenso zu dunkel wie bei HDR.
Bei HDR wird mit absoluten Leuchtdichten gearbeitet und natürlich besteht mehr Luft nach unten. Diese Luft wird beim Mastering auch ausgenutzt und sogt für zusätzlichen Anpassungswunsch beim Endverbraucher.

Servus


[Beitrag von norbert.s am 15. Aug 2017, 10:37 bearbeitet]
George_Lucas
Inventar
#179 erstellt: 15. Aug 2017, 10:41

hagge (Beitrag #172) schrieb:

Und jetzt muss er eben anfangen, Kompromisse einzugehen, sprich ein Tonemapping-Verfahren einzusetzen.

Richtig. Aber damit ist doch der gemeine Nutzer völlig überfordert.

Ich habe mal ein paar Messungen durchgeführt bezüglich HDR.
Das Flächenweiß eines HDR-Bildsignals beträgt 100 Nits, alles darüber ist den so genannten Highlights vorbehalten. Ein 1000-Nits-Signal ist 10-mal so hell wie das Flächenweiß. Ein 4000-Nits-Signal sogar 40-mal so hell wie das Flächenweiß.
Wenn ein TV tatsächlich eine Leuchtdichte von 4000 Nits besitzt, ist im Grunde alles soweit in Ordnung. HDR sieht prächtig aus.
Besitzt ein TV aber nur eine Maximalhelligkeit von 500 Nits (cd/m²), beginnt das ganz große Dilemma zu Hause.

Die Verhältnismäßigkeit zwischen Flächenweiß (100 Nits) zu Spitzenweiß (z. B. 1000) bleibt.
Das Flächenweiß besitzt 10 % des max. Highlights.
Um nun alle Bildinhalte eines 1000-Nits-Bildsignals auf einem 500-Nits-TV wiederzugeben, kommt das Flächenweiß nur noch auf 50 Nits (cd/m²). Bei einem 4000-Nits-Bildsignal gar nur auf 2,5 cd/m² (Flächenweiß). Auf dieses Flächenweiß baut die Gammakurve auf.
Deshalb ist es doch kein Wunder, dass die meisten Nutzer HDR zu dunkel empfinden.

Wie hagge schon richtig schreibt, müssen nun Kompromisse her. Anders kann am Tag bei Sonnenschein niemand TV gucken.
Die Leuchtdichte des Flächenweiß wird erhöht, was am anderen Ende zu überstrahlenden Flächen führt.

Wenn ich mich jetzt mal so im Bekanntenkreis umsehe - ein paar Heimkino-Freaks mit technischem Verständnis sind dabei - ist der allgemeine Tenor: "HDR ist viel zu dunkel".

Bildinhalte
Filme werden leider nicht in HDR gedreht. Üblicherweise werden Filme im X, Y, Z - Farbmodell gedreht. Anschließend beginnen Bildbearbeitung und Mastering. Am Ende kommt ein Digital Intermediate (DI) heraus, das den Farbraum DCI-P3 und 10 - 12 Bit Quantisierung nutzt.
So sehen wir den Film im Kino. - mit allen Bildinformationen.

Für HDR (egal welche Variante) wird dieses DI verwendet, um daraus für den Heimmarkt eine entsprechende Variante zu "basteln". Dafür werden viele Bildinhalte dunkler dargestellt. Andere werden den so genannten Highlights zugeordnet. Irgendein Wert ist dann das Flächenweiß. Es bleiben also alle Bildinformationen zum größten Teil erhalten.

Für SDR wird eine 8-Bit-Quantisierung genutzt und das kleinere Rec.709-Farbmodell genutzt. Es gehen also Bildinformationen vom DI verloren. Je nach Mastering fällt das mehr oder weniger auf.
Das ergibt sich aus dem Umstand, dass SDR in der Regel nur 220 Grau/Farbabstufungen nutzt, während das DI über bis zu 4096 Grauabstufungen im selben Bildsignal verfügt.
Je nach Filminhalt werden nicht immer max. Schwarz und max. Weiß verwendet, sondern eine begrenzte Anzahl davon, so dass ein SDR-Film bereits (fast) alle im DI vorhandenen Bildinformationen weitgehend darzustellen vermag.


Das Problem TV
Wenn nun der Nutzer Kompromisse eingeht, weil ein HDR-Signal aufgrund der TV-Limitierungen ansonsten zu dunkel dargestellt wird - und Bildinhalte infolgedessen für eine höhere Lichtausbeute wegfallen - kann es durchaus passieren, dass ein TV mit einem SDR-Film mehr Bildinhalte besitzt als ein nicht vollumfänglich dargestellter HDR-Film.


Zu Dolby Vision und HDR im Allgemeinen
Ich finde den erweiterten Farbraum großartig, ebenso eine Quantisierung von 10 Bit und eine höhere Auflösung. HDR/Dolby Vision empfinde ich als überflüssig.
Warum werden dem TV-Besitzer nicht alle Bildinformationen zur Verfügung gestellt - also so wie im DI mit 10 Bit und erweitertem Farbraum - und der TV-Besitzer kann die Helligkeit wunschgemäß so regeln, wie es die Lichtumgebung zu Hause erforderlich macht. Das wäre einfach und jeder TV-Besitzer wäre zufrieden.


[Beitrag von George_Lucas am 15. Aug 2017, 10:52 bearbeitet]
norbert.s
Inventar
#180 erstellt: 15. Aug 2017, 13:48

George_Lucas (Beitrag #179) schrieb:
Ich habe mal ein paar Messungen durchgeführt bezüglich HDR.
......Auf dieses Flächenweiß baut die Gammakurve auf....Deshalb ist es doch kein Wunder, dass die meisten Nutzer HDR zu dunkel empfinden....Um nun alle Bildinhalte eines 1000-Nits-Bildsignals auf einem 500-Nits-TV wiederzugeben, kommt das Flächenweiß nur noch auf 50 Nits (cd/m²).

Welche Kiste hast Du denn gemessen?
Denn genau dieses Szenario (hagge: Möglichkeit 1) wird von Ausnahmen abgesehen nicht angewandt.
Wie ich oben bereits dargelegt habe, wird üblicherweise die Transferkurve ST.2084 PQ EOTF bis ca. 200 bis 400 cd/m² eingehalten um darüber dann den "eigenen" Weg des von der Leuchtdichte limitierten Fernsehers zu gehen. Damit wird auch das Flächenweiß eingehalten.

Den allgemeinen Eindruck, dass HDR überwiegend "zu dunkel" wirkt kann ich bestätigen. Das liegt aber nicht an einem Fernseher, der die unteren paar hundert Candela korrekt abbildet, sondern am Mastering. Dabei lasse ich die Situation "am Tag bei Sonnenschein" außen vor, weil dort wird es immer so oder so "zu dunkel" wirken, wenn man keine Anpassung für diese Umgebungsparameter vornimmt.

Ausnahmen bestätigen die Regel, so wie oben die Transferkurve des 2017er LG OLED bei einem Master mit 4000 Nits. Da ist es tatsächlich doppelt gemoppelt - Master dunkel, Fernseher zu dunkel - per Default bei der Kiste "Möglichkeit 1". ;-)

Natürlich beinhaltet meine Erläuterung auch die Tatsache, dass es logischerweise bei über ca. 200 bis 400 cd/m² weniger hell wird, als bei einem Fernseher, der die Transferkurve ohne Limitierungen weiter korrekt ein halten kann. Thema Soft- und Hardclipping. Nur ist das nicht das was die User als "zu dunkel" beschreiben. Da geht es dann nicht mehr um "zu dunkel", sondern um "welche Kiste hat mehr Power" für die Spitzenlichter. ;-)

Servus
George_Lucas
Inventar
#181 erstellt: 15. Aug 2017, 14:54

norbert.s (Beitrag #178) schrieb:
SDR ist vom Mastering üblicherweise für einen Weißpunkt von 100 cd/m² und Gamma 2.4 ausgelegt. Würden das alle User auch einstellen, dann wäre es auch hier vielen Usern ebenso zu dunkel wie bei HDR.

Hier möchte ich noch ergänzen, dass die 100 cd/m² und Gamma 2.2 erst festgelegt worden sind, nachdem HDR spezifiziert und (von vielen) als zu dunkel deklariert worden ist. Also hat die Industrie schnell eine Standard-Anpassung vorgenommen für das Flächenweiß von SDR.
Nur interessiert dieser neue SDR-Helligkeits-Standard niemanden im Wohnzimmer. Wenn tagsüber die Sonne scheint, wird die Hintergrundbeleuchtung hochgedreht. Da abends kaum jemand die Leuchtdichte händisch reduziert, wird im Raum noch eine Lampe eingeschaltet.
So funktioniert das Nutzerverhalten beim Fernsehen seit Jahren.

Bei HDR ist das so (leider!) nicht möglich, weil die technischen Leuchtdichte-Beschränkungen des TV-Gerätes das verhindern.


Den großen Vorteil von Dolby Vision sehe ich an einer ganz anderen Stelle. Während HDR-10-Kontent maximal 880 Grauabstufungen mit einer 10-Bit-Quantisierung darzustellen vermag (Y = 64 - 940), werden es bei Inhalten, welche nicht das volle Leuchtdichtespektrum ausschöpfen entsprechend weniger Abstufungen sein, weil bei statischen Metadaten die Anpassung nur einmal erfolgt.
Dolby Vision kann zwar auch nur maximal 880 Grauabstufungen darstellen mit der 10-Bit-Quantisierung. Mit der dynamischen Anpassung ist DV allerdings imstande, die vollen 880 Grauabstufungen in allen Szenen zu nutzen. Das führt am Ende zu sichtbar weniger Banding-Effekten, weil die Abstufungen in Farbverläufen deutlich feiner ausfallen können.


[Beitrag von George_Lucas am 15. Aug 2017, 14:55 bearbeitet]
norbert.s
Inventar
#182 erstellt: 15. Aug 2017, 16:04

George_Lucas (Beitrag #181) schrieb:

norbert.s (Beitrag #178) schrieb:
SDR ist vom Mastering üblicherweise für einen Weißpunkt von 100 cd/m² und Gamma 2.4 ausgelegt. Würden das alle User auch einstellen, dann wäre es auch hier vielen Usern ebenso zu dunkel wie bei HDR.

Hier möchte ich noch ergänzen, dass die 100 cd/m² und Gamma 2.2 erst festgelegt worden sind, nachdem HDR spezifiziert und (von vielen) als zu dunkel deklariert worden ist.

Das Thema Gamma 2.2 versus Gamma 2.4 sorgt immer wieder für Verwirrung.

Die 100 cd/m² und Gamma 2.4 (bzw. EBU recommendations 2.35) wurde mit HDTV und Rec.709 lange vor HDR als Empfehlung festgelegt.
http://www.hifi-foru...=59&postID=6069#6069

Die Story ist aber weitaus komplexer durch die Umstellung der Studiomonitore von Röhre auf LCD auf OLED:
http://www.hifi-foru...3&postID=10618#10618

...Was man Wissen kann ist, das Produktionen vor dieser Zeit (2008) aber sehr sicher auf einem Gamma von etwa 2.4 basiert haben, und in Zukunft wieder werden, Aufgrund der neuen Master-Monitore(4k-OLED),der Einbindung von BT1886 in die Spezifikationen von UHD-Material(4k-TV), der Übernahme des neuen Standards in aktuellen Studios und aktueller Kalibriersoftware...


Servus
hagge
Inventar
#183 erstellt: 15. Aug 2017, 16:31

George_Lucas (Beitrag #181) schrieb:
Dolby Vision kann zwar auch nur maximal 880 Grauabstufungen darstellen mit der 10-Bit-Quantisierung. Mit der dynamischen Anpassung ist DV allerdings imstande, die vollen 880 Grauabstufungen in allen Szenen zu nutzen. Das führt am Ende zu sichtbar weniger Banding-Effekten, weil die Abstufungen in Farbverläufen deutlich feiner ausfallen können.

Ist das wirklich so? Das würde doch bedeuten, dass es eine eigene PQ-Kurve für jeden möglichen maximalen Helligkeitswert gibt. Denn jede Szene kann ja über die dynamischen Metadaten einen anderen maximalen Helligkeitswert festlegen und über die PQ-Kurve erfolgt dann die EOT-Funktion. Das glaube ich aber ehrlich gesagt nicht. Ich denke es gibt auch bei DV nur eine einzige PQ-Kurve. Und es passiert das gleiche wie bei HDR10. Wenn in einem Film (bei DV entsprechend in einer Szene) eben nur Werte von 0 bis 100 cd/m² vorkommen, dann bleiben die höheren Werte einfach ungenutzt. Ich glaube nicht, dass dann eine feinere Auflösung möglich ist und die höheren Werte wieder genutzt werden.

Bei HDR10 ist es z.B. so, dass die Abbildung über die PQ-Kurve immer gleich ist. Und die ist bis 10.000 cd/m² definiert. Wenn also eine BD nur auf 1000 cd/m² abgemischt ist, werden die höheren Werte einfach nie auf dieser Scheibe vorkommen.

Gruß,

Hagge


[Beitrag von hagge am 15. Aug 2017, 16:34 bearbeitet]
norbert.s
Inventar
#184 erstellt: 15. Aug 2017, 16:38

George_Lucas (Beitrag #181) schrieb:
Nur interessiert dieser neue SDR-Helligkeits-Standard niemanden im Wohnzimmer. Wenn tagsüber die Sonne scheint, wird die Hintergrundbeleuchtung hochgedreht. Da abends kaum jemand die Leuchtdichte händisch reduziert, wird im Raum noch eine Lampe eingeschaltet.
So funktioniert das Nutzerverhalten beim Fernsehen seit Jahren.
Bei HDR ist das so (leider!) nicht möglich, weil die technischen Leuchtdichte-Beschränkungen des TV-Gerätes das verhindern.

Wenn wir hundert Nutzer haben, dann haben wir hundert unterschiedliche Vorlieben. :-)

Daher ist es erst einmal wichtig für den Fernseher und für das Medium, dass die Standards korrekt eingehalten werden - egal ob HDR oder SDR. Auf dieser Basis kann dann jeder Nutzer seine Vorlieben einstellen.

Wie Du richtig schreibst ist das bei SDR gang und gäbe. Bei HDR ist der Weg zu mehr Flexibilität auch bereitet, da die Fernseher die ich kenne bereits verschiedene Transferkurven als HDR-Bild Modi für verschiedene Umgebungsbedingungen bieten. Übersichtlicher wird es dadurch nicht unbedingt, da manche Kisten die akkurateste Wiedergabe als Kino-Mode, andere als Standard-Mode benennen. Aber wie Du erkannt hast, hat ja bei SDR schon jeder Ottonormalverbraucher eingestellt was ihm gefällt und bei HDR wird das sicherlich auch (bald) möglich sein. ;-)

Ich habe theoretisch bei UHD-Player und Fernseher 3x3 HDR-Modi zur Verfügung. Ergibt schon 9 Kombinationen ohne Dynamischen Kontrast, Active HDR oder DV. ;-)

Servus


[Beitrag von norbert.s am 15. Aug 2017, 16:45 bearbeitet]
George_Lucas
Inventar
#185 erstellt: 15. Aug 2017, 16:51
@norbert.s
Meines Wissens liegt hier ein Fehler in Wikipedia vor.

Die ITU hat damals bei der Spezifikation von Rec.709 schlichtweg vergessen, das Gamma für die Wiedergabe zu spezifizieren, während sie es aufnahmeseitig festgeschrieben hat.
Später hat sich das "lineare" Gamma 2.2 allgemein durchgesetzt, weil es von Industrie und Handel einfach verwendet wurde. Es gab damals viele Probleme diesbezüglich, weil sich der Helligkeitsanstieg von Gamma Rec.709 aufnahmeseitig und das allgemein verwendete Gamma wiedergabeseitig unterscheiden.

Hier die aktuelle Spezifikation von 2015:
ITU-Rec709

Darin ist ein Gamma 2.4 nicht festgeschrieben, wenn ich das richtig verfolgt habe.

Andere Institutionen wie zum Beispiel THX (Gamma 2.4) haben eigene Standards entwickelt, die bis heute auch genutzt werden.
THX stellt dabei sogar einen Sonderfall dar, weil die Videorange (Superwhite) Y = 16 - 255 für Displays vorgegeben sind, gleichwohl sogar die THX standardisierten Filme auf DVD/Blu-ray die Videorange Y = 16 - 235 verwenden.
Auf Nachfrage konnte mir niemand bei THX den Sinn in diesem Widerspruch erklären.

Sollte es inzwischen Änderungen geben, lasse ich mich gerne korrigieren.


[Beitrag von George_Lucas am 15. Aug 2017, 16:52 bearbeitet]
norbert.s
Inventar
#186 erstellt: 15. Aug 2017, 17:17

George_Lucas (Beitrag #185) schrieb:
Die ITU hat damals bei der Spezifikation von Rec.709 schlichtweg vergessen, das Gamma für die Wiedergabe zu spezifizieren, während sie es aufnahmeseitig festgeschrieben hat.

Da hat sich seit 1993 nichts geändert. Ausgabeseitig musste es nicht festgeschrieben werden, da alle (Studio und Wohnzimmer) über Röhre geschaut haben mit einem festen Gamma, welches bei allen in etwa gleich war. Andere - nicht die ITU - haben das später nachgeholt, als es in der "Moderne" am Gerät einstellbar wurde. Ich würde die EBU hier nicht ignorieren wollen.

Du solltest schon den zweiten Link oben auch nachlesen. Ich konnte bei meiner damaligen Recherche 2014 die Angaben von Koji-X nachvollziehen und weitestgehend bestätigen.

Nicht umsonst sage selbst ich auf die Frage, was denn das richtige Gamma wäre:
Alles zwischen Gamma 2.2 und 2.4 ist nicht falsch. ;-)

Achja - hier noch abschließend die EBU Tech 3320 (first issued 2007):
It has been found from measurement techniques, progressively refined over several decades, that a correctly designed CRT display has an EOTF gamma of approximately 2.35 [5]. This is part of the ‘immovable legacy effect’ of the CRT.
In January 2014 a study was made at the IRT in Munich, comparing a variety of video material, and film material graded for video, on three monitors set for gamma values of 2.2, 2.35 and 2.4. An analysis of the comments and views of the vision engineers and colourists who took part in the study concluded that monitors set to 2.35 and 2.4 were so similar that no substantial difference would have occurred had the material been graded at one or other setting.
The EBU has therefore taken the decision to drop its preference for a gamma of 2.35 to bring this document into line with other international standards bodies (who in general took the view that the value need only be specified to one decimal place), and the EBU are thus accepting a gamma value of 2.4...


Aber das führt hier zu weit ins OT und möchte daher von meiner Seite enden.

Servus


[Beitrag von norbert.s am 15. Aug 2017, 18:11 bearbeitet]
George_Lucas
Inventar
#187 erstellt: 15. Aug 2017, 18:32


Na, dann sehen wir das ja weitgehend gleich.

Für HDR wurde das Gamma ja nun verbindlicher spezifiziert. Wie du in deinen Messungen sehr eindrucksvoll aufzeigst, kocht hier leider (aber verständlicherweise) jeder TV-Hersteller sein eigenes Süppchen, in dem er vom standardisierten Gamma obenrum abweicht.

Wirklich zielführend finde ich das alles aber nicht.
George_Lucas
Inventar
#188 erstellt: 15. Aug 2017, 18:57

hagge (Beitrag #183) schrieb:

George_Lucas (Beitrag #181) schrieb:
Dolby Vision kann zwar auch nur maximal 880 Grauabstufungen darstellen mit der 10-Bit-Quantisierung. Mit der dynamischen Anpassung ist DV allerdings imstande, die vollen 880 Grauabstufungen in allen Szenen zu nutzen. Das führt am Ende zu sichtbar weniger Banding-Effekten, weil die Abstufungen in Farbverläufen deutlich feiner ausfallen können.

Ist das wirklich so? Das würde doch bedeuten, dass es eine eigene PQ-Kurve für jeden möglichen maximalen Helligkeitswert gibt. Denn jede Szene kann ja über die dynamischen Metadaten einen anderen maximalen Helligkeitswert festlegen und über die PQ-Kurve erfolgt dann die EOT-Funktion.


So habe ich das damals in London verstanden, als ich von BenQ mit wenigen anderen Journalisten in das dortige Dolby Studio eingeladen war. Dort habe ich mich nach Dolby Vision genauer erkundigt - und bekam das als Antwort auf meine Frage.



hagge (Beitrag #183) schrieb:


Bei HDR10 ist es z.B. so, dass die Abbildung über die PQ-Kurve immer gleich ist.

Richtig. Der Player/TV bekommt zum Start einmalig die Metadaten - und stellt sich bei HDR-10 dann entsprechend ein. Das ist halt einer der Nachteile der statischen Metadaten.


[Beitrag von George_Lucas am 15. Aug 2017, 18:58 bearbeitet]
norbert.s
Inventar
#189 erstellt: 15. Aug 2017, 19:16

George_Lucas (Beitrag #187) schrieb:
Für HDR wurde das Gamma ja nun verbindlicher spezifiziert. Wie du in deinen Messungen sehr eindrucksvoll aufzeigst, kocht hier leider (aber verständlicherweise) jeder TV-Hersteller sein eigenes Süppchen, in dem er vom standardisierten Gamma obenrum abweicht.

Müssen sie ja auch zwingend, da keiner die 1000 cd/m² oder gar die 4000 cd/m² erreicht. Ohne Abweichung geht es dann nicht.
Ein Standard für die Abweichung vom Standard ist nun wirklich zu viel verlangt. ;-)

Ich habe da ein einfaches Kriterium für meinen nächsten OLED. Er muss im Fenster mindestens ca. 1400 cd/m² erreichen. Wieso?
Damit er die ST.2084 PQ EOTF bis 1000 Nits korrekt einhalten kann und für die 4000 Nits eine kleine Reserve für das Soft-Clipping hat. Den kann ich dann behalten, bis der nächste OLED 5500 cd/m² erreicht. Wieso? Damit er die ST.2084 PQ EOTF bis 4000 Nits korrekt einhalten kann und für die 10000 Nits eine kleine Reserve für das Soft-Clipping hat. ;-)

DV ist für Fernseher, die die geforderte Leuchtdichte erreichen (4000) die Krönung und für Fernseher, die die Leuchtdichte nicht erreichen eine adäquate Notlösung.

Servus
norbert.s
Inventar
#190 erstellt: 15. Aug 2017, 19:27

George_Lucas (Beitrag #181) schrieb:
Dolby Vision kann zwar auch nur maximal 880 Grauabstufungen darstellen mit der 10-Bit-Quantisierung. Mit der dynamischen Anpassung ist DV allerdings imstande, die vollen 880 Grauabstufungen in allen Szenen zu nutzen. Das führt am Ende zu sichtbar weniger Banding-Effekten, weil die Abstufungen in Farbverläufen deutlich feiner ausfallen können.

So habe ich es auch verstanden. Es wird dynamisch per Metadaten die Leuchtdichte von Weiß- und Schwarzpunkt festgelegt und alle Bits können (müssen aber nicht) in diesem Leuchtdichte-Bereich dann benutzt werden. Das fand ich damals genial und sehr ambitioniert. Leider habe ich mir den Link dazu nicht aufgehoben. Damals hatte ich noch kein DV-Equipment daheim.

Servus
norbert.s
Inventar
#191 erstellt: 16. Aug 2017, 12:34
Es ist gar nicht einfach dazu überhaupt Details oder eine Bestätigung im Internet zu finden.

...Well, with static metadata, the boundaries in brightness are set for the entirety of the movie. For example: If you set the boundary as 0 to 1000 cd/m2, the moment you enter a very dark scene where none of the colors reach above 50 cd/m2, only 5% of the bit depth will be available for use. With dynamic metadata, the boundary can be adapted to the scene. In the same scenario, the dark scene would have the full 10 bit distributed in the much smaller amount it needs...

http://www.rtings.com/tv/learn/hdr10-vs-dolby-vision

Servus
norbert.s
Inventar
#192 erstellt: 18. Aug 2017, 10:08
Nun geht es erst richtig los. :-)

Der erste preiswerte UHD-Blu-ray-Player mit Dolby Vision:
Dolby Vision HDR Update für LG UHD Blu-ray Disc Player erschienen

Servus
hagge
Inventar
#193 erstellt: 18. Aug 2017, 12:04

norbert.s (Beitrag #191) schrieb:
Es ist gar nicht einfach dazu überhaupt Details oder eine Bestätigung im Internet zu finden.

Eigentlich liest man überall, dass Dolby Digital (ST 2094-10) auch auf PQ (ST 2084) basiert. Dort bei ST 2084 wird aber gesagt, dass es eben keine unterschiedlichen Codierungen für unterschiedliche maximale Helligkeiten gibt, weil der Platz, der durch hohe Helligkeiten verschwendet wird, vergleichsweise gering ist. Siehe z.B. hier: https://www.smpte.or...ller-1-2-handout.pdf auf Folie 14: Der Bereich von 5000 bis 10000 cd/m² verbraucht gerade einmal 7% des Codespaces.

Ein theoretischer Vergleich, wie der Unterschied verschiedener Codierungen bei einer Gamma-basierten Codierung und bei der PQ-basierten Codierung aussähe, ist dann auf Folie 16 zu sehen, Dort sieht man den Anteil der entsprechenden Codeworte an der Gesamtmenge bei Codierung für 10000 cd/m2, 5000 cd/m², 2000 cd/m², 1000 cd/m² und 500 cd/m². Man sieht im Slide zu Gamma, dass man da viel Platz einsparen könnte, aber bei PQ eben gar nicht mehr viel.

Das heißt aber für mich im Umkehrschluss, dass es wirklich nur eine einzige PQ-Quantisierungs-Codierung gibt und auch Dolby Vision dann diese Codierung nutzt. Und dann eben bei Szenen mit geringeren Helligkeiten *keine* höhere effektive Bittiefe durch eine andere Codierung nutzen kann.

Gruß,

Hagge
HicksandHudson
Inventar
#194 erstellt: 18. Aug 2017, 12:11

norbert.s (Beitrag #192) schrieb:
Nun geht es erst richtig los. :-)

Der erste preiswerte UHD-Blu-ray-Player mit Dolby Vision:
Dolby Vision HDR Update für LG UHD Blu-ray Disc Player erschienen

Servus


Wenn jetzt dann endlich mal viele Filme raus kämen auf Disc, dann könnte man fast anfangen, direkt zu vergleichen, wie viel DV wirklich bringt auf rein physischer Disc.


[Beitrag von HicksandHudson am 18. Aug 2017, 12:12 bearbeitet]
norbert.s
Inventar
#195 erstellt: 18. Aug 2017, 12:39
@hagge
Da ich aktuell nur eine einzige Quelle dazu im Internet gefunden habe, gehe ich auch erst einmal von deinem Szenario aus.
Die andere Quelle finde ich nicht mehr. Ist aber auch schon über ein Jahr her.

Grundsätzlich arbeitet Dolby Vision mit 12bit und HDR10 mit 10bit. So gesehen ist eine höhere Auflösung bei PQ EOTF kein Problem. Und um nichts anderes geht es - mehr Bits für einen definierten aber dynamischen Bereich der Transferkurve. Also kein Hexenwerk.

Servus


[Beitrag von norbert.s am 18. Aug 2017, 12:45 bearbeitet]
hagge
Inventar
#196 erstellt: 22. Aug 2017, 07:22

norbert.s (Beitrag #195) schrieb:
Grundsätzlich arbeitet Dolby Vision mit 12bit und HDR10 mit 10bit. So gesehen ist eine höhere Auflösung bei PQ EOTF kein Problem.

Naja, wenn im Standard z.B. eine 12-Bit-Codierung vorgegeben wird, kann man die 10-Bit-Variante einfach erhalten, indem man nur jeden vierten Wert nimmt. Genauer: Man erhält den zu nutzenden 12-Bit-Wert, indem man die höchstwertigen zwei der zehn Bits nochmal unten an die 10 Bits anhängt,

0000_0000_00 -> 0000_0000_0000
0000_0000_01 -> 0000_0000_0100
...
0011_1111_11 -> 0011_1111_1100
0100_0000_00 -> 0100_0000_0001
0100_0000_01 -> 0100_0000_0101
...
1011_1111_11 -> 1011_1111_1110
1100_0000_00 -> 1100_0000_0011
1100_0000_01 -> 1100_0000_0111
...
1111_1111_10 -> 1111_1111_1011
1111_1111_11 -> 1111_1111_1111


Durch diesen gängigen Trick für Bittiefen-Umrechnung erhält man wirklich sauber alles von lauter 0-Bits bei dunkel zu lauter 1-Bits bei hell.

Sofern hinter der Abbildung der PQ-Werte auf die Codeworte ein Algorithmus steckt, wäre es natürlich auch möglich, diese Berechnung dynamisch für jeden beliebigen Helligkeitsbereich abhängig von den gerade geltenden Metadaten zu machen. Insofern ist mir schon klar, dass so ein variables Vorgehen durchaus möglich wäre. Das würde aber genauso für HDR10 gelten, dann eben über den gesamten Film. Nur bei HDR10 wurde mir seinerzeit erklärt, dass sich dort die ungenutzten Helligkeiten eben auch in ungenutzten Codeworten manifestieren. Ob das wirklich stimmt -- keine Ahnung. Der Vortragende war aber sehr kompetent, insofern würde ich eher dazu tendieren, ihm zu glauben.

Es kann auch sein, dass diese Umrechnung zwar grundsätzlich möglich, aber zu komplex für die Implementierung in Hardware und zu langsam für Software ist. Wir haben es bei 4K immerhin mit über 8 Mio Pixeln zu tun, die entsprechend oft pro Sekunde umgerechnet werden müssen. Wenn man darum nur mit einer Lookup-Tabelle arbeiten kann, wird so eine Dynamik wieder fast unmöglich.

Vielleicht müsste man mal in den Quellcode zu ffmpeg schauen. Die können doch bestimmt schon HDR10, vielleicht sogar Dolby Vision.

Gruß,

Hagge


[Beitrag von hagge am 22. Aug 2017, 07:31 bearbeitet]
Henro
Stammgast
#197 erstellt: 28. Aug 2017, 07:44
Ich habe gestern Fast and Furious 8 UHD mit dem LG UP970 Player an einem LG 55UH8509 geguckt. Das Bild gefiel mir wirklich ausgesprochen gut, jedoch habe ich die erste halbe Stunde die dynamische Hintergrundbeleuchtung immer wieder umgestellt, weil das Bild je nach Szene immer nachdunkelte oder nachhellte, bis ich auf "aus" gemerkt habe, dass der Effekt nicht verschwindet.

Ist dieses Verhalten Dolby Vision zu "verdanken"?
norbert.s
Inventar
#198 erstellt: 28. Aug 2017, 08:50
Theoretisch - Ja.
Wenn der Fernseher lahmarschig auf die dynamischen Metadaten reagiert ist durch den Zeitversatz ein Regelvorgang sichtbar.

Servus
yilhas
Stammgast
#199 erstellt: 28. Aug 2017, 18:59
Panasonic und 20th Century Fox setzen auf HDR10+

https://www.heise.de...c=rss.ho.beitrag.rdf
HicksandHudson
Inventar
#200 erstellt: 28. Aug 2017, 21:46
Ohje....dass Pana da mit macht, hätte ich nie gedacht.
Das könnte das ganze HDR Thema ziemlich durcheinander schmeißen und für DV blöd ausgehen.
BigBlue007
Inventar
#201 erstellt: 28. Aug 2017, 22:47
Das wird es definitiv. Es war ja vorher schon abzusehen, dass sich DV nicht als HDR-Standard durchsetzen wird - dazu ist Samsung zu groß und die Verlockung für alle anderen, dass mit HDR10+ eine lizenzkostenfreie Alternative bereitsteht, ebenso.

Panasonic dürfte nur der erste Hersteller neben Samsung sein, der auf den Zug aufspringt. Andere werden folgen. DV ist spätestens seit heute zum Tode verurteilt.

Das Gute daran ist, dass sich jeder, bei dem eine Kaufentscheidung bevorsteht, nun nicht mehr darum kümmern muss, ob das gewünschte Gerät DV kann oder können wird. Das Blöde ist, dass man jetzt halt wissen müsste, wer noch alles bei HDR10+ mitzieht...

Oder das Ganze ist einem im Moment halt einfach erstmal noch Latte...


[Beitrag von BigBlue007 am 28. Aug 2017, 22:48 bearbeitet]
Suche:
Gehe zu Seite: |vorherige| Erste 2 3 4 5 6 7 8 Letzte |nächste|
Das könnte Dich auch interessieren:
HDR 10+, Dolby Vision
PeterHimmel am 20.08.2020  –  Letzte Antwort am 01.12.2022  –  18 Beiträge
Dolby Vision und HDR gehört die Zukunft
V._Sch. am 25.07.2015  –  Letzte Antwort am 29.09.2015  –  208 Beiträge
Unterschied Dolby Vision und Dynamisches HDR (HDMI2.1)?
fe0109 am 29.08.2018  –  Letzte Antwort am 18.11.2020  –  11 Beiträge
Verständnisfragen: LG Active HDR - HDR HLG -Dolby Vision
htpc4ever am 18.11.2017  –  Letzte Antwort am 06.03.2018  –  12 Beiträge
Apple TV 4K & Sony A8 Dolby Vision Set Up
CopaMike am 23.09.2018  –  Letzte Antwort am 02.10.2018  –  3 Beiträge
Hue Sync Box + Xbox Series X kein Dolby Vision? [GELÖST]
DarthSonic am 01.06.2021  –  Letzte Antwort am 02.06.2021  –  2 Beiträge
Hue Sync Box nur Dolby Vision Low Latency?
DarthSonic am 28.09.2021  –  Letzte Antwort am 01.05.2022  –  4 Beiträge
Nvidia 3D Vision Erfahrungsbericht
qfactor am 06.11.2010  –  Letzte Antwort am 21.11.2010  –  6 Beiträge
Vision eines Fernsehers
Malte_ am 13.08.2015  –  Letzte Antwort am 17.08.2015  –  18 Beiträge
Toshiba Super High Vision Display ?
duno am 21.05.2011  –  Letzte Antwort am 24.05.2011  –  3 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.721 ( Heute: 11 )
  • Neuestes Mitgliedgune
  • Gesamtzahl an Themen1.551.048
  • Gesamtzahl an Beiträgen21.536.774