Gehe zu Seite: |vorherige| Erste Letzte

Dolby Vision für Projektoren - großer Mehrwert?

+A -A
Autor
Beitrag
hajkoo
Inventar
#51 erstellt: 07. Jul 2016, 15:30
Was glaubst Du denn, wie so ein Hersteller seine Entwicklungskosten neuer Technologien finanziert. Und am Ende jammern dann alle dass es nur noch zwei Player Hersteller gibt, oder zweieinhalb Projektoren Hersteller, oder die Fertigungsqualität immer schlechter wird, usw. Davon kann man allein aus dem letzten Jahr zig Beispiele hier im Forum finden.

so long...
audiohobbit
Inventar
#52 erstellt: 07. Jul 2016, 16:00

Nudgiator (Beitrag #49) schrieb:
Frag mal Ekki dazu

Nö.
surbier
Inventar
#53 erstellt: 07. Jul 2016, 16:43
@hajkoo
MIR brauchst Du es nicht zu sagen, da ich im gewissen Sinne zu den Early Adoptern zähle, die jährlich, maximal zweijährlich mehrere UE Geräte ersetzen. Von daher weine Dich an einer anderen Schulter aus.

Gruss
Surbier
Nudgiator
Inventar
#54 erstellt: 07. Jul 2016, 17:18

surbier (Beitrag #50) schrieb:

Ich möchte lediglich darauf hinweisen, dass aus meiner Sicht der Markt alles andere als "zerschossen" ist.


Die ersten DVD-Player waren teuer, die ersten BD-Player waren teuer, die ersten UHD-Player sind dagegen deutlich günstiger eingeführt worden. Den K8500 gibt es bereits für um die 350€. Das ist schon recht günstig.

Wenn Du den Vergleich mit BD-Playern bringst: da gibt es die günstigsten Geräte bereits für ca. 50€. Nach oben ist auch bei 1000€ noch nicht Schluß. Das 1000€-Gerät ist mit Sicherheit nicht den Aufpreis von Faktor 20 wert

Ziehst Du nun den Vergleich zum K8500: der schneidet deutlich besser ab, als ein 50€ BD-Player ... und beherrscht eben auch UHD
Jogitronic
Inventar
#55 erstellt: 07. Jul 2016, 17:24
http://hdguru.com/do...awaits-mediatek-soc/

Immer noch "...working on...", so wird das aber nichts werden
Cine4Home
Gesperrt
#56 erstellt: 08. Jul 2016, 00:50

Extremstubenhocker (Beitrag #55) schrieb:
http://hdguru.com/do...awaits-mediatek-soc/

Immer noch "...working on...", so wird das aber nichts werden :.



Immerhin ein recht objektiver Bericht, der die technische und politische Situation sachlich schildert.


[Beitrag von Cine4Home am 08. Jul 2016, 00:51 bearbeitet]
Cine4Home
Gesperrt
#57 erstellt: 09. Jul 2016, 12:35
Wie erwartet versuchen immer mehr, mit eigenen, bahnbrechenden HDR/HFR-Wundersystemen ein Stück vom Lizenz-Kuchen abzubekommen:

http://www.ymagis.co...6_EclairColor_DE.pdf

http://www.hollywood...-cinema-brand-909051


Ein nachträgliches "proprietäres" System für Standard- Projektoren?
Klingt nach Zwischenbildberechnung, Super Resolution und Kontrast-Enhancer-Schaltung für Kino Projektoren

TOLL, darauf hat die Welt gewartet!


[Beitrag von Cine4Home am 09. Jul 2016, 12:46 bearbeitet]
bierch3n
Stammgast
#58 erstellt: 09. Jul 2016, 15:40

Cine4Home (Beitrag #57) schrieb:
....

TOLL, darauf hat die Welt gewartet!

Hi,
ich versteh die Ironie hinter dem zitiertem nicht
Die wenigstens Kinos halten vom Bild her mit einem Wohnzimmerkino mit,
wird Zeit das dort nachgebessert wird - tut mir natürlich für alle leid, die das Kinofilmruckeln vermissen werden, auch wenn ich eine Zwischenbildberechnung aus dem Verlinkten nicht rauslesen kann.
Recht hast du, jeder wird versuchen sich ein Stück vom HRD Kuchen abzuschneiden, HRD ist in Kombination mit UHD mMn für Grossbildprojektionen der richtige Schritt - schärfer, bunter, kontrastreicher !

In Europa sind HDR Kinos leider rar gesät, in Deutschland ist mir keins bekannt.

VG
Cine4Home
Gesperrt
#59 erstellt: 09. Jul 2016, 17:47
Du hast die Artikel anscheinend nicht richtig gelesen:

Sie versprechen mehr Auflösung, mehr Kontrast und HFR "sofort" bei "ollen" Projektoren.
Die Projektions-Hardware wird also gerade nicht verbessert.

Die Ironie daraus ergibt sich von selbst...

Gruß,
Ekki


[Beitrag von Cine4Home am 09. Jul 2016, 17:50 bearbeitet]
bierch3n
Stammgast
#60 erstellt: 11. Jul 2016, 10:52
Hi,
hatte den deutschen Artikel nur überflogen, trotzdem kann das (wie zb Darbee und co) die Bildqualität verbessern.
Falls das "Remastering" durch die EclairBox hält was die versprechen, könnte es einen Mehrwert bedeuten.
Versteh aber nun was du meinst, ein kostengünstiges Update für alte Kinohardware.

VG
Nudgiator
Inventar
#61 erstellt: 11. Jul 2016, 11:12

bierch3n (Beitrag #60) schrieb:

Versteh aber nun was du meinst, ein kostengünstiges Update für alte Kinohardware.


Och, Samsung hat doch eben erst HDR+ eingeführt. Damit kann man auch normale BDs mit HDR-Effekten ausgeben. Das Ergebnis soll aber net so dolle sein.
bierch3n
Stammgast
#62 erstellt: 11. Jul 2016, 12:05
Hi,
ist trotz allem ein interessanter Ansatz, ein ähnlich gut wie der Darbee funktionerender Algorithmus für HDR (und Skalierung auf 4K) in einer BOX könnte die alten BDs aufwerten.
Ob nun geschummelt oder "nativ", solange des Ergebnis für meine/unsere Augen stimmt und Mehrwert bereitstellt darf man sich nicht beschweren, oder ?

VG
leon136
Hat sich gelöscht
#63 erstellt: 11. Jul 2016, 12:55

Cine4Home (Beitrag #57) schrieb:
Wie erwartet versuchen immer mehr, mit eigenen, bahnbrechenden HDR/HFR-Wundersystemen ein Stück vom Lizenz-Kuchen abzubekommen:

http://www.ymagis.co...6_EclairColor_DE.pdf

http://www.hollywood...-cinema-brand-909051


Ein nachträgliches "proprietäres" System für Standard- Projektoren?
Klingt nach Zwischenbildberechnung, Super Resolution und Kontrast-Enhancer-Schaltung für Kino Projektoren

TOLL, darauf hat die Welt gewartet!


Eigentlich zum kotz... das eine neuer Standart über Hintertüren so "Verwässert" werden kann, trägt auch nicht zur Transparent`s bei.
Mann nehme ich ein X beliebiges Gerät und klebe möglichst viele Sticker drauf die beeindrucken ...


[Beitrag von leon136 am 11. Jul 2016, 13:04 bearbeitet]
Jogitronic
Inventar
#64 erstellt: 11. Jul 2016, 13:07
Das original HDR10 wird ja von den meisten Betrachtern als zu dunkel empfunden, da wundert es doch garnicht das plötzlich "Verbesserungsvorschläge" gemacht werden - siehe Samsung mit HDR+.
Cine4Home
Gesperrt
#65 erstellt: 11. Jul 2016, 13:15

Nudgiator (Beitrag #61) schrieb:

bierch3n (Beitrag #60) schrieb:

Versteh aber nun was du meinst, ein kostengünstiges Update für alte Kinohardware.


Och, Samsung hat doch eben erst HDR+ eingeführt. Damit kann man auch normale BDs mit HDR-Effekten ausgeben. Das Ergebnis soll aber net so dolle sein.



Sowas hatte Sony schon vor drei Jahren bei seinen TVs eingeführt, nennt sich "Xtended Dynamic Range" (XDR). Ich sag ja, diese ganzen Wunderschaltungen gibt es doch schon seit Jahren, haben aber nie eine Sau interessiert. Wahrscheinlich weil nicht Dolby draufstand?

Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 13:24 bearbeitet]
Cine4Home
Gesperrt
#66 erstellt: 11. Jul 2016, 13:20

bierch3n (Beitrag #62) schrieb:
Hi,
ist trotz allem ein interessanter Ansatz, ein ähnlich gut wie der Darbee funktionerender Algorithmus für HDR (und Skalierung auf 4K) in einer BOX könnte die alten BDs aufwerten.


Jo, da sind wir dann bei Xtended Dynamic Range + Reality Creation.

So alt, dass es schon einen Bart hat (zumindest bei Sony TVs)



[Beitrag von Cine4Home am 11. Jul 2016, 13:21 bearbeitet]
Impatient
Stammgast
#67 erstellt: 11. Jul 2016, 14:03

Cine4Home (Beitrag #65) schrieb:

Sowas hatte Sony schon vor drei Jahren bei seinen TVs eingeführt, nennt sich "Xtended Dynamic Range" (XDR). Ich sag ja, diese ganzen Wunderschaltungen gibt es doch schon seit Jahren, haben aber nie eine Sau interessiert. Wahrscheinlich weil nicht Dolby draufstand?


Dolby Vision erfindet im Gegensatz zum Darbee, HDR+ und EclairColor nichts dazu. Wenn Dolby Vision eine Wunderschaltung ist, dann ist dies HDR10 plus Display Device genauso. Der primäre Unterschied ist, dass bei Dolby Vision der Display Hersteller das Tone und Gamut Mapping aus der Hand geben muss, bei HDR10 kann der Displayhersteller mit den Mapping Daten anstellen was er will und z.B. mit übertriebenem Mapping versuchen den Verkauf anzuheizen.
Solange ein Mapping dieser Art bei UHD notwendig ist, vertraue ich hier eher auf Dolby als auf die OEMs. Was passiert wenn man den OEMs bei dem Thema freie Hand lässt, sieht man ja schön an den initialen HDR10 Erfahrungen, Stichwort zu dunkles HDR.

Schönes Video zum Thema erforderliches UHD Mapping ab etwa Minute 50 hier.


[Beitrag von Impatient am 11. Jul 2016, 14:08 bearbeitet]
audiohobbit
Inventar
#68 erstellt: 11. Jul 2016, 14:17

Stichwort zu dunkles HDR.

Das hat doch mit freier Hand nichts zu tun. Im Gegenteil wurde hier erstmal 1:1 das gemacht was man bei Fernsehern macht, ohne zu bedenken dass der Projektor eine geringere max. Leuchtdichte hat, und diese auch noch von der Leinwandgröße abhängig ist.
Ein Abgleichen der Pegel auf die jew. Leinwandgröße, und zwar individuell, wird bei Projektoren wohl nie ausbleiben.
Cine4Home
Gesperrt
#69 erstellt: 11. Jul 2016, 14:20

Impatient (Beitrag #67) schrieb:

Dolby Vision erfindet im Gegensatz zum Darbee, HDR+ und EclairColor nichts dazu. Wenn Dolby Vision eine Wunderschaltung ist, dann ist dies HDR10 plus Display Device genauso.


Nein, denn HDR10 ist ein absolut transparente Norm. Im Gegensatz zu DolbyVision, für das es keine festen Bezugspunkte gibt. Genau letzteres öffnet ja Tür und Tor für Effekthascherei, die selbstverständlich auch bei Dolby ausgenutzt wird.


Impatient (Beitrag #67) schrieb:

Der primäre Unterschied ist, dass bei Dolby Vision der Display Hersteller das Tone und Gamut Mapping aus der Hand geben muss, bei HDR10 kann der Displayhersteller mit den Mapping Daten anstellen was er will und z.B. mit übertriebenem Mapping versuchen den Verkauf anzuheizen.


Nein, kann der Hersteller bei HDR10 eben nicht, ohne "aufzufliegen", denn das ist alles messbar, wie bei SDR.
Dolby hingegen kann durch übertriebenes Mapping seine Version "anheizen". Und wie es scheint, sind viele hier sehr empfänglich dafür.


Impatient (Beitrag #67) schrieb:

Solange ein Mapping dieser Art bei UHD notwendig ist, vertraue ich hier eher auf Dolby als auf die OEMs. Was passiert wenn man den OEMs bei dem Thema freie Hand lässt, sieht man ja schön an den initialen HDR10 Erfahrungen, Stichwort zu dunkles HDR.


Es ist momentan gar kein Mapping notwendig, man braucht nur ein TV, das die Norm richtig umsetzt. So war das auch bei SDR, auf einmal wird aus Selbstverständlichkeiten ein Riesen Problem gemacht. Man merkt: Das Dolby-Syndrom wirkt schon

Zu "dunkles" HDR ist übrigens ein ganz schlechtes Beispiel, denn die 100nits Durchschnittshelligkeit wurden eben nicht von den "OEMs" initiiert, sondern wurden ausdrücklich(!) von den Regisseuren so gewünscht, die sich über die übertrieben helle Abbildung von SDR auf TVs schon seit Jahren ärgern. Die Helligkeit eines HDR10 Filmes liegt alleine bei den Mastering-Studios, und das ist auch gut so!


Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 14:22 bearbeitet]
George_Lucas
Inventar
#70 erstellt: 11. Jul 2016, 14:28

Cine4Home (Beitrag #69) schrieb:
(...) die 100nits Durchschnittshelligkeit wurden eben nicht von den "OEMs" initiiert, sondern wurden ausdrücklich(!) von den Regisseuren so gewünscht, die sich über die übertrieben helle Abbildung von SDR auf TVs schon seit Jahren ärgern.

Ein Großteil der TV-Geräte-Nutzer schaut mit Restlicht im Raum. Sei es, dass Tageslicht am Nachmittag ins Wohnzimmer fällt. Oder am Abend wird eine kleine Stehlampe eingeschaltet. Philips beleuchtet sogar die Wand mit "Ambilight", die sich hinter dem TV-Gerät befindet. Und nun kommen die Filmemacher und sagen: "Alles falsch. Das Bild ist zu hell. Macht es dunkler." - Dass der Zuschauer unter praxisnahen Gegebenheiten kaum imstande ist, noch ein detailreiches Bild auf dem Display zu sehen, wird bei solchen Aussagen doch völlig vernachlässigt. Das Ergebnis von HDR-Sichtungen ist doch bekannt. Viele empfinden HDR im "hellen" Wohnzimmer als zu dunkel.


[Beitrag von George_Lucas am 11. Jul 2016, 14:30 bearbeitet]
Cine4Home
Gesperrt
#71 erstellt: 11. Jul 2016, 14:48

George_Lucas (Beitrag #70) schrieb:

Ein Großteil der TV-Geräte-Nutzer schaut mit Restlicht im Raum. Sei es, dass Tageslicht am Nachmittag ins Wohnzimmer fällt. Oder am Abend wird eine kleine Stehlampe eingeschaltet. Philips beleuchtet sogar die Wand mit "Ambilight", die sich hinter dem TV-Gerät befindet. Und nun kommen die Filmemacher und sagen: "Alles falsch. Das Bild ist zu hell. Macht es dunkler." - Dass der Zuschauer unter praxisnahen Gegebenheiten kaum imstande ist, noch ein detailreiches Bild auf dem Display zu sehen, wird bei solchen Aussagen doch völlig vernachlässigt. Das Ergebnis von HDR-Sichtungen ist doch bekannt. Viele empfinden HDR im "hellen" Wohnzimmer als zu dunkel.
;)


Klar, das "Empfinden" viele TV-Nutzer wich schon immer von den Intentionen der Filmemacher ab (sowohl bei Helligkeit als auch Farben), ist ja nichts neues. Und die TV-Hersteller werden auch garantiert darauf reagieren und die HDR Helligkeit sicherlich nachregulierbar machen.

Nur was soll das dann mit "adäquater" Bildreproduktion zu tun haben, darum ging es doch gerade?

Im Übrigen stört eine "kleine Stehlampe" HDR bei einem richtig eingestellten TV nicht.

Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 15:00 bearbeitet]
Impatient
Stammgast
#72 erstellt: 11. Jul 2016, 19:31

Cine4Home (Beitrag #69) schrieb:

Es ist momentan gar kein Mapping notwendig, man braucht nur ein TV, das die Norm richtig umsetzt. So war das auch bei SDR, auf einmal wird aus Selbstverständlichkeiten ein Riesen Problem gemacht. Man merkt: Das Dolby-Syndrom wirkt schon

UHD bietet im Gegensatz zu SDR einen flexiblen Container in dem alles mögliche drin stecken kann. Da kann DCI-P3 drin sein, aber auch irgendwann Bt.2020. Der Masteringplatz kann 1.000, 4.000 oder 10.000 Nits oder irgendetwas dazwischen haben. Deshalb braucht es bei UHD Metadaten, die das Wiedergabegerät über die Masteringbedingungen informieren.

Solange alle UHD Quellen auf P3 und 1000 Nits gemastert sind, funktioniert die einmalige Kalibrierung noch. Wenn sich das ändert, nicht mehr. Da bei P3 und 1000 Nits bei UHD noch lange nicht Schluss ist, wird sich das ändern, daher ist ein Tone / Gamut Mapping notwendig und in statischer Form sogar bei HDR10 enthalten. Alternativ kann man sein Device naürlich auch mit jeder anderes gemasterten UHD Quelle umkonfigurieren. Ich habe da ne super Geschäftsidee: Als speziellen Service das in HDR10 eingebaute statische Mapping deaktivieren und für die verschiedenen UHD Permutationen Kalibrierprofile anbieten, bis die Speicherplätze irgendwann ausgehen...

SDR war da viel statischer, daher war hier auch kein Mapping notwendig. Farbraum BT.709, 100 Nits. Gradingdevice und Wiedergabegerät konnten hier in der Tat sehr einfach auf einen gemeinsamen Standard kalibriert werden. Bei einem Moving Target wie UHD ist das nur sehr kurzfristig gedacht möglich.

UHD ist deshalb nicht schlecht, ganz im Gegenteil. Endlich wurde mal ein Softwarestandard geschaffen, der der Hardware voraus ist.


[Beitrag von Impatient am 11. Jul 2016, 19:50 bearbeitet]
Cine4Home
Gesperrt
#73 erstellt: 11. Jul 2016, 20:26

Impatient (Beitrag #72) schrieb:

Solange alle UHD Quellen auf P3 und 1000 Nits gemastert sind, funktioniert die einmalige Kalibrierung noch. Wenn sich das ändert, nicht mehr. Da bei P3 und 1000 Nits bei UHD noch lange nicht Schluss ist, wird sich das ändern, daher ist ein Tone / Gamut Mapping notwendig und in statischer Form sogar bei HDR10 enthalten.



Wie du schon sagst "irgendwann" kann es BT2020 sein, oder 2000 cd/m² oder 4000cd/m², das stimmt.
Aber wenn man das adäquat darstellen will, wird man entsprechende TVs oder Beamer brauchen, die intensivere Farben oder mehr Helligkeit liefern.

Der Glauben, man könnte durch "Mapping" ohne Verluste eine adäquate Reproduktion gewährleisten, ist sachlich einfach falsch. Man kann nur die Kompromisse der inadäquaten Darstellung gewichten. Und die beste Gewichtung ist immer subjektiv, niemals objektiv "adäquat".

Beispiel gefällig?
Wenn du ein HDR Bild hast, bei dem das Peakweiß auf 2000nits gesetzt ist hast Du die Möglichkeiten:

a) Den Beamer wie gehabt alles über 1000nits clipen zu lassen. Dann siehst du die 1000nits bis 2000nits Differenzierung zwar nicht, aber die restliche Bildhelligkeit bleibt richtig.

b) Du setzt den Weißpegel des Beamers auf 2000nits. Dann hast du zwar die volle Differenzierung in Weiß, doch das Highlight wird dadurch nicht strahlender (hat ja trotzdem nur 1000nits) und der Rest des Bildes wird zu dunkel.

c) Irgendwas zwischen a) und b).

Alles trifft die Originalkomposition nicht, alles ist nicht adäquat. Und diese Problematik bleibt, egal ob das nun Filmbasierend oder Szenenbasierend geschaltet wird. Nach bisherigen User-Feedback finden die meisten Version a) übrigens wesentlich besser bei Beamern, und, oh Wunder, dafür muss man gar nichts(!) neu einstellen, lässt das HDR Setting also unberührt und muss nicht ständig "umkonfigurieren".

Das Gleiche gilt für die Farben, ganz abgesehen davon, dass ein BT2020 Mapping die Beamer schon jetzt(!) alle ab Werk eingebaut haben (sowohl JVC als auch Sony). Wann man das überhaupt braucht, steht in den Sternen, DCI macht den Löwenanteil aus und bleibt uns im Kino auch auf längere Zeit erhalten.

Und selbstverständlich bedurfte es SDR eines solchen Mappings! Teilweise wurde das nur in den Studios gemacht (DCI->Rec709). Teilweise hat es keine Sau interessiert (Helligkeitsunterschiede der Wiedergabegeräte). Aber dementsprechend inadäquat waren auch die Ergebnisse.

Das ganze Thema ist so alt wie Beamer. Vor ein paar Jahren waren die "Kalibrierprofis" immer mit dem Märchen unterwegs, man könnte "auf die Raumeinflüsse kalibrieren". Das ist genauso Humbug wie jetzt eine adäquate UHD-Bildreproduktion auf TVs oder Beamern, die optisch dazu nicht in der Lage sind.

Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 22:11 bearbeitet]
screenpowermc
Inventar
#74 erstellt: 11. Jul 2016, 20:32
[quote="Cine4Home (Beitrag #73)"][quote="Impatient (Beitrag #72)"]

b) Du setzt den Weißpegel des Beamers auf 2000nits. Dann hast du zwar die Differenzierung in Weiß, doch das Highlight wird dadurch nicht strahlender und der Rest des Bildes wird zu dunkel.[/quote]

Aber doch nicht wenn es irgendwann Geräte gibt die das dementsprechend darstellen können.
Cine4Home
Gesperrt
#75 erstellt: 11. Jul 2016, 20:38

screenpowermc (Beitrag #74) schrieb:

Cine4Home (Beitrag #73) schrieb:


b) Du setzt den Weißpegel des Beamers auf 2000nits. Dann hast du zwar die Differenzierung in Weiß, doch das Highlight wird dadurch nicht strahlender und der Rest des Bildes wird zu dunkel.


Aber doch nicht wenn es irgendwann Geräte gibt die das dementsprechend darstellen können.



Richtig!
Das ist ja gerade der Punkt: Entweder man hat ein Gerät, das den Zielwert helligkeitstechnisch schafft oder eben nicht. Und wenn nicht, gibt es unweigerlich inadäquate Defizite.

Mein Beispiel bezog sich auf den jetzigen Gerätestand.
Mit einem 2000nits TV hätte man keine Probleme (müsste bei HDR10 dann sowieso nichts "Mappen", weder für 1000cd Material, noch für 2000cd Material).

Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 20:43 bearbeitet]
screenpowermc
Inventar
#76 erstellt: 11. Jul 2016, 20:51

Cine4Home (Beitrag #75) schrieb:

screenpowermc (Beitrag #74) schrieb:

Cine4Home (Beitrag #73) schrieb:


b) Du setzt den Weißpegel des Beamers auf 2000nits. Dann hast du zwar die Differenzierung in Weiß, doch das Highlight wird dadurch nicht strahlender und der Rest des Bildes wird zu dunkel.


Aber doch nicht wenn es irgendwann Geräte gibt die das dementsprechend darstellen können.



Richtig!
Das ist ja gerade der Punkt: Entweder man hat ein Gerät, dass das Helligkeitstechnisch schafft oder eben nicht. Und wenn nicht, gibt es unweigerlich inadäquate Defizite.

Mein Beispiel bezog sich auf den jetzigen Gerätestand, mit einem 2000nits TV hätte man keine Probleme (müsste aber sowieso nichts "Mappen", weder für 1000cd Material, noch für 2000cd Material).

Gruß,
Ekki


Nehmen wir mal an es gibt irgendwann mal Geräte die 2000 Nits und mehr darstellen können, wie würden dann die jetzigen UHD's mit 1000 Nits dargestellt werden? Dann bräuchte man doch mehrere Setups um die unterschiedlich gemasterten UHD's 1000 Nits, 2000 Nits etc korrekt darstellen zu können. Und genau das soll ja durch Dolby Vision automatisch angepasst werden. Somit kann doch HDR10 nicht der Weisheit letzter Schuss sein. Richtig oder Denkfehler?
Cine4Home
Gesperrt
#77 erstellt: 11. Jul 2016, 20:59

screenpowermc (Beitrag #76) schrieb:

Nehmen wir mal an es gibt irgendwann mal Geräte die 2000 Nits und mehr darstellen können, wie würden dann die jetzigen UHD's mit 1000 Nits dargestellt werden? Dann bräuchte man doch mehrere Setups um die unterschiedlich gemasterten UHD's 1000 Nits, 2000 Nits etc korrekt darstellen zu können. Und genau das soll ja durch Dolby Vision automatisch angepasst werden. Somit kann doch HDR10 nicht der Weisheit letzter Schuss sein. Richtig oder Denkfehler?


Denkfehler...

Eine jetzige "UHD" (mit 1000nits gemastert) sieht nur Helligkeiten bis 1000nits vor. Wenn Du dies auf einem 2000nits TV darstellst, musst du am TV gar nichts umstellen, er wird halt nur keine 2000nits Bildelemente darstellen (die ja auch gar nicht aufgezeichnet sind). Das ist die "korrekte" Darstellung.

Wenn Du jetzt unbedingt willst, dass auch alte 1000nits BDs auf Deinem TV mit 2000nits dargestellt werden, erst dann musst du anpassen, verlässt aber automatisch die adäquate Bildkomposition.

Sicherlich, in ein paar Jahren sind "Hybrid" BDs denkbar, die verschiedene Versionen parallel aufgezeichnet haben (nicht zu verwechseln mit DolbyVision und auch nur, falls sich die Studios wirklich die Mühe machen werden, einen Film gleich mehrmals zu mastern). Aber falls / bis die kommen, verfügt HDR10 auch über dynamische Metadaten, wenn man diese in der jetzigen Form dann überhaupt braucht. Nur das hilft uns bei unseren "dunklen" Beamern auch nicht aus der Patsche, für die ist das 1000nits Mastering solange das einzig reell verwendbare, bis diese mal 3500 Lumen bei einem Kontrast >40,000:1 erreicht haben.

Gruß,
Ekki


[Beitrag von Cine4Home am 11. Jul 2016, 22:04 bearbeitet]
Impatient
Stammgast
#78 erstellt: 11. Jul 2016, 23:52
Ekki, Danke für deine Hartnäckigkeit in der Sache!

Ist absolut was dran an deiner Argumentation. Die Behauptung man könne beim Mapping von einem besseren Displaydevice (4000 Nits) auf ein schlechteres (1000 Nits) den "creative intent" erhalten ist natürlich Schwachsinn. Dolby behauptet mit dem "Wunderalgorithmus" bei einem solchen Fall besser, sprich "näher am creative intent" zu sein, als das triviale Clipping.
Was besser (schwer bis unmöglich zu messen, da subjektiv) funktioniert, ist unklar. Ich würde sehr gerne einem fairen "HDR10" und Dolby Vision TV Shootout beiwohnen, d.h. gleiche TV Technologie und gleiche Limitierungen, z.B. 1000 Nits bei einem Mastering der Quelle von 4000 Nits. Der HDR10 sollte dann z.B. bei 1000 clippen (HDR10/Dolby Vision im Endeffekt ausgeschaltet, keine Auswertung von Metadaten) und der TV mit aktiviertem Dolby Vision soll mit dynamischen Mapping und Dolby Feenstaub versuchen das "Beste" rauszuholen. Daneben steht dann ein dritter TV mit Referenz Nits (4000) jedoch wieder gleiche TV Technologie. Welche der beiden Varianten kommt subjektiv tatsächlich näher an die Referenz?

Ein solcher Vergleich fand meines Wissens bisher nicht öffentlich statt, daher kann es in der Tat sein, das Dolby Vision bzgl. des Mappings nur eine sehr gute Kundenverarsche ist. Die Zeit wird es zeigen. Auf jeden Fall bleibt es spannend.

Auch wenn das Mapping nicht taugen sollte, finde ich DV weiterhin interressant wegen der scheinbaren Unabhängigkeit zu HDMI Revisionen, DV funktioniert theoretisch sogar mit HDMI 1.4. Für jeden HDR10 Babystep, dynamische Metadaten, 12 Bit, mehr Nits bis 10.000 wird es wie ich HDMI einschätze im Extremfall eine neue Revision geben, die die komplett Kette invalidiert. Ob und wann man die ganzen DV Upgrades braucht ist unklar, jedoch wenn man diese braucht, ist man mit dem zukunftsgerichtetem DV mindestens mal in der Playerkette besser bedient als mit einer älteren HDR10 Revision, die diese ganzen Features noch nicht hat.



[Beitrag von Impatient am 12. Jul 2016, 00:15 bearbeitet]
Nudgiator
Inventar
#79 erstellt: 12. Jul 2016, 00:53
Nur so am Rande: man braucht kein DV für HDR mit HDMI 1.4. Das klappt auch z.B. mit einem Radiance Pro. Damit kannst Du sämtliche "Schweinereien" betreiben: Rec.709, BT.2020, HDR, SDR ... beliebig gemischt ... auch mit HDMI 1.4
Cine4Home
Gesperrt
#80 erstellt: 12. Jul 2016, 09:03

Impatient (Beitrag #78) schrieb:

Was besser (schwer bis unmöglich zu messen, da subjektiv) funktioniert, ist unklar. Ich würde sehr gerne einem fairen "HDR10" und Dolby Vision TV Shootout beiwohnen, d.h. gleiche TV Technologie und gleiche Limitierungen, z.B. 1000 Nits bei einem Mastering der Quelle von 4000 Nits. Der HDR10 sollte dann z.B. bei 1000 clippen (HDR10/Dolby Vision im Endeffekt ausgeschaltet, keine Auswertung von Metadaten) und der TV mit aktiviertem Dolby Vision soll mit dynamischen Mapping und Dolby Feenstaub versuchen das "Beste" rauszuholen. Daneben steht dann ein dritter TV mit Referenz Nits (4000) jedoch wieder gleiche TV Technologie. Welche der beiden Varianten kommt subjektiv tatsächlich näher an die Referenz?



Das ist eine hervorragende Idee!
Sowas werden wir versuchen zu organisieren, sobald es die notwendige Hardware / Software gibt.





Impatient (Beitrag #78) schrieb:

Auch wenn das Mapping nicht taugen sollte, finde ich DV weiterhin interressant wegen der scheinbaren Unabhängigkeit zu HDMI Revisionen, DV funktioniert theoretisch sogar mit HDMI 1.4. Für jeden HDR10 Babystep, dynamische Metadaten, 12 Bit, mehr Nits bis 10.000 wird es wie ich HDMI einschätze im Extremfall eine neue Revision geben, die die komplett Kette invalidiert.


??
Du weißt aber schon, dass die aktuellen HDR10 Player schon jetzt 10,000nits und 12bit ausgeben?
Wo soll da die HDMI-Kette invalidiert werden?

Gruß,
Ekki


[Beitrag von Cine4Home am 12. Jul 2016, 09:03 bearbeitet]
Impatient
Stammgast
#81 erstellt: 12. Jul 2016, 10:33

Cine4Home (Beitrag #80) schrieb:


??
Du weißt aber schon, dass die aktuellen HDR10 Player schon jetzt 10,000nits und 12bit ausgeben?
Wo soll da die HDMI-Kette invalidiert werden?

Nein, das ist mir neu. Tatsächlich hat der Samsung UHD Player eine Deep Color 12-Bit Option. Gut zu wissen wenn dieser theoretisch auch 10000 Nits ausgeben könnte. Die HDR10 Codierung selbst ist nach meinem Verständnis jedoch auf 10 Bit und 1000 Nits beschränkt, d.h. mir ist nicht klar wie eine UHD BluRay codiert werden könnte so dass ein HDR10 Player 12 Bit und 10000 Nits tatsächlich ausgibt, ohne die Kompatibilität zum aktuellen HDR10 Codec aufzugeben.

Freue mich auf den Dolby Vision Shoot Out!


[Beitrag von Impatient am 12. Jul 2016, 10:52 bearbeitet]
KMario
Ist häufiger hier
#82 erstellt: 12. Jul 2016, 14:05

Impatient (Beitrag #81) schrieb:

Cine4Home (Beitrag #80) schrieb:


??
Du weißt aber schon, dass die aktuellen HDR10 Player schon jetzt 10,000nits und 12bit ausgeben?
Wo soll da die HDMI-Kette invalidiert werden?

Nein, das ist mir neu. Tatsächlich hat der Samsung UHD Player eine Deep Color 12-Bit Option. Gut zu wissen wenn dieser theoretisch auch 10000 Nits ausgeben könnte. Die HDR10 Codierung selbst ist nach meinem Verständnis jedoch auf 10 Bit und 1000 Nits beschränkt, d.h. mir ist nicht klar wie eine UHD BluRay codiert werden könnte so dass ein HDR10 Player 12 Bit und 10000 Nits tatsächlich ausgibt, ohne die Kompatibilität zum aktuellen HDR10 Codec aufzugeben.

Freue mich auf den Dolby Vision Shoot Out!
:prost


Hier mischt man Fähigkeiten von HDR10, UHD BR Player und HDMI durcheinander ...

HDR10 ("HDR10 Media Profile" - von CEA (Consumer Electronics Association)) ist wirklich auf 10 Bit beschränkt:
HDR10 Media Profile is defined as:

EOTF: SMPTE ST 2084
Color Sub-sampling: 4:2:0 (for compressed video sources)
Bit Depth: 10 bit
Color Primaries: ITU-R BT.2020
Metadata: SMPTE ST 2086, MaxFALL, MaxCLL

Der UHD player kann das auf 12bit upscallen und HDMI kann 12bit übertragen ...
-------------------------------------------------------------------------------------------------------------------
Die sache mit nits ist komplizierter ... Die "max nits" wir durch SMPTE ST 2086 MaxCLL und SMPTE ST 2084 "definiert".

SMPTE ST 2086 MaxCLL ist das was auf UHD BR disk dem display/projektor sagt was ist maximum nit für diese disk beim HDR10:
MaxCLL beschreibung

der range ist interesant (1-65535 nits):
"E.2.5 MaxCLL and MaxFALL representation
The MaxCLL and MaxFALL values can be represented as an unsigned 16--bit integer value in units of 1 cd/m2, where 0x0001 represents 1 cd/m2 and 0xFFFF represents 65535 cd/m2..
If for some reason the MaxCLL and/or MaxFALL values are unknown, the value 0x0000 can be used to represent unknown."

SMPTE ST 2084 definiert die PQ kurve ... die geht in range [0-1] ... die wird aber meistens dann mit 10.000 multipliziert für 10.000 nits Maximum wie von Dolby vorgesehen. Alte aber gute Dolby PQ presentation

Auf dem markt sind so UHD BR disks mit 1000nits MaxCLL, es gibt Gerüchte das WB disks mit 4000nits gemastert sind, Dolby meint 10.000nits sind gut genug und das ganze kann schon jetzt von HDR10 -> UHD BR player -> HDMI kette bis Maximum 65535nits gehen (theoretisch^^) ...
Cine4Home
Gesperrt
#83 erstellt: 12. Jul 2016, 15:22

KMario (Beitrag #82) schrieb:
Hier mischt man Fähigkeiten von HDR10, UHD BR Player und HDMI durcheinander ...
HDR10 ("HDR10 Media Profile" - von CEA (Consumer Electronics Association)) ist wirklich auf 10 Bit beschränkt:
HDR10 Media Profile is defined as:
...



Es ging oben aber nicht um HDR10, sondern um HDMI, was in Bezug zur 12-Bittiefe kein Problem darstellt, wie von Impatient angenommen.

Aber wie gesagt: 12 Bit ist eh ziemlich Makulatur mit derzeitigen Projektoren, weil man davon nix sehen würde

Gruß,
Ekki


[Beitrag von Cine4Home am 12. Jul 2016, 15:24 bearbeitet]
Wolf352
Inventar
#84 erstellt: 12. Jul 2016, 15:57

Cine4Home (Beitrag #83) schrieb:

KMario (Beitrag #82) schrieb:
Hier mischt man Fähigkeiten von HDR10, UHD BR Player und HDMI durcheinander ...
HDR10 ("HDR10 Media Profile" - von CEA (Consumer Electronics Association)) ist wirklich auf 10 Bit beschränkt:
HDR10 Media Profile is defined as:
...



Es ging oben aber nicht um HDR10, sondern um HDMI, was in Bezug zur 12-Bittiefe kein Problem darstellt, wie von Impatient angenommen.

Aber wie gesagt: 12 Bit ist eh ziemlich Makulatur mit derzeitigen Projektoren, weil man davon nix sehen würde

Gruß,
Ekki


Ist 10Bit derzeit nicht auch ziemliche Makulatur da tatsächlich 8Bit gedithert wird?
Oder können die Beamer Panels nativ 10Bit?
Da gab es bei den TV Panels ja teilwiese flache Infos und entsprechende Ernüchterung.

VG
Wolfgang
Impatient
Stammgast
#85 erstellt: 12. Jul 2016, 16:40
KMario, Ekki, Danke für die Aufklärung!



Somit kann der öffentliche HDR Standard mit "nur" einer HDMI Revision (vermutlich 2.1, der nächsten nach 2.0b für dynamische Metadaten) den heutigen Dolby Vision Möglichkeit in Zukunft theoretisch gleich ziehen, wenn dann vermutlich unter dem Namen "HDR12" (für 12 Bit)
KMario
Ist häufiger hier
#86 erstellt: 12. Jul 2016, 17:03

Impatient (Beitrag #85) schrieb:
Somit kann der öffentliche HDR Standard mit "nur" einer HDMI Revision (vermutlich 2.1, der nächsten nach 2.0b für dynamische Metadaten) den heutigen Dolby Vision Möglichkeit in Zukunft theoretisch gleich ziehen, wenn dann vermutlich unter dem Namen "HDR12" (für 12 Bit) :)


für "HDR12" brauchst du keiner neue HDMI Revision ... das ist was wir dir versuchen zu sagen ... schon heute kriegen TVs/projektoren "HDR12" von Samsung/Pana UHD BR playern wann gewünscht und kommen damit klar ...

wie gesagt: HDR10 Media Profile is defined as - Bit Depth: 10 bit -> Der UHD player kann das auf 12bit upscallen und HDMI kann 12bit übertragen ...

interessante frage ist aber was machen die TVs/projektoren mit diese 12bits wann die nur 10bit darstellen können? einfach 2 low bits wegschmeissen ... das wäre echt lustig :-) ... insbesondere da DV 12bit sein sollte!
Impatient
Stammgast
#87 erstellt: 12. Jul 2016, 17:36

KMario (Beitrag #86) schrieb:

für "HDR12" brauchst du keiner neue HDMI Revision ... das ist was wir dir versuchen zu sagen ... schon heute kriegen TVs/projektoren "HDR12" von Samsung/Pana UHD BR playern wann gewünscht und kommen damit klar ...

Schon klar, meinte nur für dynamische Metadaten ist noch eine neue HDMI Revision notwendig, 12 Bit und 10.000 Nits sind mit HDMI 2.0b bereits schon möglich. HDR12 wäre also in Summe bereits mit HDMI 2.1 möglich mit allen heutigen Dolby Vision Extras.


[Beitrag von Impatient am 12. Jul 2016, 17:38 bearbeitet]
Cine4Home
Gesperrt
#88 erstellt: 12. Jul 2016, 19:24

Wolf352 (Beitrag #84) schrieb:

Ist 10Bit derzeit nicht auch ziemliche Makulatur da tatsächlich 8Bit gedithert wird?
Oder können die Beamer Panels nativ 10Bit?
Da gab es bei den TV Panels ja teilwiese flache Infos und entsprechende Ernüchterung.

VG
Wolfgang



Doch, die "guten" 3Chip Beamer schaffen schon problemlos 10bit optisch abzubilden.
Ob das auch mit Single Chip DLP klappt, müssen wir erstmal untersuchen



KMario (Beitrag #86) schrieb:

interessante frage ist aber was machen die TVs/projektoren mit diese 12bits wann die nur 10bit darstellen können? einfach 2 low bits wegschmeissen ... das wäre echt lustig :-) ... insbesondere da DV 12bit sein sollte!


Signaltechnisch werden die 12bit schon verarbeitet, nur gehen die in der Pulsweitenmodulation einfach unter, werden sozusagen "gerundet".

Gruß,
Ekki


[Beitrag von Cine4Home am 12. Jul 2016, 19:30 bearbeitet]
George_Lucas
Inventar
#89 erstellt: 12. Jul 2016, 22:48
Welche Hersteller hierzulande unterstützen eigentlich Dolby Vision?
Cine4Home
Gesperrt
#90 erstellt: 12. Jul 2016, 23:10

George_Lucas (Beitrag #89) schrieb:
Welche Hersteller hierzulande unterstützen eigentlich Dolby Vision?



LG

(gemeint ist "Lucky Goldstar", nicht "Liebe Grüße")



Gruß,
Ekki


[Beitrag von Cine4Home am 12. Jul 2016, 23:11 bearbeitet]
Suche:
Gehe zu Seite: |vorherige| Erste Letzte
Das könnte Dich auch interessieren:
Besseres HDR auf Projektoren mit Low Latency Dolby Vision (LLDV)?
Abaqus68 am 17.11.2019  –  Letzte Antwort am 21.06.2023  –  106 Beiträge
Dolby Vision/HDR Firmwareupgrades bei aktuellen 4 K Beamern?
worf1234 am 25.02.2017  –  Letzte Antwort am 12.03.2017  –  6 Beiträge
Xiaomi Laser Cinema 2: Erster 4K-Laserprojektor mit Dolby Vision
Heimkinopirat am 09.11.2021  –  Letzte Antwort am 15.01.2022  –  10 Beiträge
Großer Projektionsabstand, Teleoptiken für Beamer bekannt?
Gaaston!! am 05.08.2005  –  Letzte Antwort am 05.08.2005  –  2 Beiträge
Bewegungsschärfe Projektoren
haddoz am 03.11.2009  –  Letzte Antwort am 04.11.2009  –  5 Beiträge
Barco Vision 700
sma am 04.05.2004  –  Letzte Antwort am 03.06.2004  –  10 Beiträge
Erste 3D Projektoren mit nativen 120Hz
Rafunzel am 20.06.2009  –  Letzte Antwort am 30.01.2010  –  52 Beiträge
Projektoren Reaktionszeit
Kel_Thalas am 28.08.2007  –  Letzte Antwort am 30.08.2007  –  4 Beiträge
Projektoren für Video RGB
Torti77 am 05.02.2004  –  Letzte Antwort am 09.02.2004  –  4 Beiträge
deckenhalterung für projektoren
kleinsenna am 03.11.2006  –  Letzte Antwort am 10.11.2006  –  5 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: 3 )
  • Neuestes MitgliedAndy63
  • Gesamtzahl an Themen1.551.077
  • Gesamtzahl an Beiträgen21.537.612

Hersteller in diesem Thread Widget schließen