Gehe zu Seite: |vorherige| Erste . 3 4 5 6 7 8 9 10 11 12 . 20 Letzte |nächste|

4K-Displays: HDMI 2.0 und HDCP 2.2 - Was wir jetzt darüber wissen müssen!

+A -A
Autor
Beitrag
*Maxe*
Gesperrt
#307 erstellt: 16. Okt 2013, 15:31

James_Cameron (Beitrag #300) schrieb:
Maxe, Du machst den Fehler und reflektierst von der handvoll Leute hier im Forum auf einen ganzen Konsumentenmarkt. .


Mag sein, aber darum gehts doch hier letztlich gar nicht. Denn der gesamte Konsumentenmarkt ist davon gar nicht betroffen, nur eine ganz kleine Handvoll von Leuten, die überhaupt so teure Geräte kaufen würden. Sind es 3% der Beamerkäufer? Oder gar 5% vielleicht?

Und was bitte sollen "Lämmer auf dem Weg zur Schlachtbank" sein? Nicht mehr als alle die, die brav vom HD 350 auf den X3, dann den X30, endlich auf den X35 aufgestiegen sind. Auch die haben von "Verbesserungen" geträumt, die nur ganz minimal da waren. Hat die es gestört? Lies doch mal die alten freds, in den gerade unser weisser Ritter und Nudge jeden Takt lang die JVC Trommel gekloppt haben.

Aber auch diese, nur 3 oder 5% der Konsumenten brauchen keine Aufklärung in einem Forum von selbsternannten Aufpassern, die klären das schon mit dem Handel direkt. Wenn es denn mal was zu klären gäbe!

Bislang dient das Thema nur zur Freizeitbewältigung, denn die wirklich wichtigen Beteiligten haben die Sache bestimmt längst geklärt. Und sollte es wirklich am allerersten Tag des Verkaufs bestätigt werden, das diese Geräte nicht für die erhoffte Zukunft geeignet sind, wird auch das unmittelbar bekannt sein.

Bislang hat aber noch keiner irgendein Gerät zum Verkauf angeboten, nichtmal eine Messe hat man damit besucht. Warum wohl?!?? Lasst den Jungs doch die Chance, nachzubessern, das ist doch ENDLICH MAL positiv, das der Handel VOR der Markbegehung nachbessert. WO ist da der Betrug??? Könnt Euch nachher immer noch groß und breit aufblähen, wenn wirklich mal ein Ergebnis feststeht.

Und mit Sicherheit sind all diese Leute den Herren Lucas und Nudigator auch völlig egal, hier gehts nur um das eigene Ego, nicht mehr. Das da einige Tröten wie Joe Potter mitsingen, ist nur wenig verwunderlich. Auch hier gehts doch gar nicht um die Sache.
leon136
Hat sich gelöscht
#308 erstellt: 16. Okt 2013, 19:19
@Maxe @Nudgiator

Kommt Jungs seid nett zu einander
Ich brauch euch noch um meinen HC5 zu pimpen wenn mein Sensor da ist, es muss doch jemand einem "Trottel" wie mir erklären wie das geht.
*AbsolutBlue*
Hat sich gelöscht
#309 erstellt: 16. Okt 2013, 22:38

*Maxe* (Beitrag #307) schrieb:

James_Cameron (Beitrag #300) schrieb:
Maxe, Du machst den Fehler und reflektierst von der handvoll Leute hier im Forum auf einen ganzen Konsumentenmarkt. .



Und was bitte sollen "Lämmer auf dem Weg zur Schlachtbank" sein? Nicht mehr als alle die, die brav vom HD 350 auf den X3, dann den X30, endlich auf den X35 aufgestiegen sind. Auch die haben von "Verbesserungen" geträumt, die nur ganz minimal da waren.



Ich hatte HD100 HD350 und jetzt den x35.
Die Bildqualität ist mit dem 35er am besten.
Die sonstige qualität ist aber konsequent nach unten degradiert worden.
Mein Gerät ging Gestern zum 3ten mal zum Super Service der Firma jvc.


So jetzt wieder zum topic.

Die neuen radeon r9 Grafikkarten haben nur hdmi 1.4.
Bei TOMS HARDWARE wurde die r9 280x vorgestellt.
Das Flaggschiff Modell wird aber auch nur hdmi 1.4 haben
http://www.tomshardw...berichte-241401.html


Ich habe eine Email dorthin geschickt und schnell eine Antwort erhalten.


Hallo ...........,

es ist definitiv 1.4, nicht 2.0. Ich bezweifle auch, dass es über das BIOS noch eine Änderung im Nachhinein geben wird. Das Problem ist, dass der DisplayPort im High-End-Sektor aus Sicht der Hersteller bei den PCs die bessere Lösung ist.

Viele Grüße

Igor

Tom’s Hardware germany


Enttäuschung


[Beitrag von *AbsolutBlue* am 16. Okt 2013, 22:47 bearbeitet]
*Michael_B*
Inventar
#311 erstellt: 17. Okt 2013, 00:23

Alf-72 schrieb:
Ich finde es nach wie vor sehr gewagt diese Technik 4K (wenn auch lite) zu nennen. Nur weil das Bild zwischendurch einmal hoch und runter skaliert wird ist es eben immer noch kein 4K. Es ist weiterhin weit davon entfernt. Nach dieser Theorie könnte man das zugespielte 2K Signal auch mal eben auf 8K hochskalieren, um es danach wieder in 2K auszugeben. Darf man dies dann 8K-lite² nennen?


Jo, finde ich auch gewagt. Wir wissen um die Problematik, aber andere denken vielleicht, dass da echte 4K-Panels drin sind.

Trotzdem hat dieser Kniff aber IMHO schon etwas, weil die beiden Fields schräg versetzt sind. Es muss zwar ohne Ende skaliert werden wegen der besonderen Eigenschaften der Technik, aber es kommen gegenüber 2K trotzdem doppelt so viele Bildinformationen auf der Leinwand an. Die Schwäche ist eben die harte Abgrenzung der einzelnen Pixel zueinander.

MfG
Michael
Alf-72
Inventar
#312 erstellt: 17. Okt 2013, 00:41

*Michael_B* (Beitrag #311) schrieb:
... Es muss zwar ohne Ende skaliert werden wegen der besonderen Eigenschaften der Technik, aber es kommen gegenüber 2K trotzdem doppelt so viele Bildinformationen auf der Leinwand an. Die Schwäche ist eben die harte Abgrenzung der einzelnen Pixel zueinander.

Soweit ich e-Shift verstanden habe, werden die versetzten Pixel die anderen überlagern. Dadurch verschwindet zwar das Fliegengitter, welches man aber eigentlich aus einer nomalen Entfernung nicht wahrnehmen sollte, aber durch diese Überlagerung ist es nicht möglich doppelt so viele Bildinformationen darzustellen. Stell Dir einfach vor, dass zwei unterschiedlich gefärbte Pixel nebeneinander dargestellt werden sollen. Was glaubst Du, wie das Ergebnis durch die Überlagerung aussehen wird? Es ist definitiv nicht möglich noch zwei weitere Bildinformationen "an der gleichen Stelle" darzustellen.
Zusätzliche Informationen kann ich nur darstellen, wenn auch Platz dafür vorhanden ist. Dies erreiche ich jedoch nicht durch eine Überlagerung. Und da sich die tatsächliche Auflösung nicht erhöht, ist es meiner Meinung nach nicht möglich "mehr" darzustellen.

Vielleicht sollten wir einen extra Thread eröffnen: "e-Shift: Was Sie jetzt darüber wissen müssen".
Jetzt wird der Beitrag sicher wieder gelöscht...
*Michael_B*
Inventar
#313 erstellt: 17. Okt 2013, 01:10

Jetzt wird der Beitrag sicher wieder gelöscht...


Keine Ahnung, was da gelöscht wurde, aber meiner Meinung nach sind die Grundfragen erst mal einigermassen beantwortet und man muss jetzt noch ein paar Tage abwarten, was Sony und JVC da tatsächlich abliefern.

Bei Sony scheint es klar zu sein, schon wegen dem Update für den VW1000. Sollten die da ein teures Update anbieten welches dann auch wieder nicht funktioniert gehen vermutlich einige Mittelfinger hoch.

Bei JVC gehe ich mal davon aus, dass es ebenfalls funktionieren wird mit 4K-Input. Das die Jungs von JVC sich bedeckt halten schätze ich mal eher als Marketing-Sache ein. JVC baut IMHO keine Multimedia-Beamer wie z. B. Epson sondern eher Filmkisten. Mit 4K-Input aus der zu Ecke kommen und dann nichts mit den kommenden Scheiben anfangen zu können würde ich jedenfalls für einen grossen Fehler halten.


Zusätzliche Informationen kann ich nur darstellen, wenn auch Platz dafür vorhanden ist


Wenn es um scharf gezeichnete Pixel geht hast Du auf jeden Fall recht. Trotzdem sind es doppelt so viele Bildpunkte, auch wenn sie sich überlappen. Sozusagen die halbe 4K-Auflösung und durch die Überlappung dazu noch weich gezeichnet. Das ist IMHO aber immer noch etwas anderes, als 2K auf EShift hoch zu rechnen und über die Skalierungsalgorithmen etwas dazu erfinden zu müssen. Das ist im Moment jedenfalls mein Gedankengang was EShift und echtes 4K angeht.

MfG
Michael


[Beitrag von *Michael_B* am 17. Okt 2013, 01:12 bearbeitet]
Alf-72
Inventar
#314 erstellt: 17. Okt 2013, 01:26

*Michael_B* (Beitrag #313) schrieb:
...Trotzdem sind es doppelt so viele Bildpunkte, auch wenn sie sich überlappen. Sozusagen die halbe 4K-Auflösung und durch die Überlappung dazu noch weich gezeichnet. Das ist IMHO aber immer noch etwas anderes, als 2K auf EShift hoch zu rechnen und über die Skalierungsalgorithmen etwas dazu erfinden zu müssen. Verstehst Du, was ich meine?

Nicht ganz... was meinst Du mit "auf e-Shift hochrechnen"? Das 2K Quellmaterial wird ja zuerst auf 4K hochgerechnet und danach wieder reduziert. Dadurch wird natürlich auch etwas dazu erfunden... das bleibt natürlich nicht aus. Mit was vergleichst Du das jetzt?


[Beitrag von Alf-72 am 17. Okt 2013, 01:28 bearbeitet]
*Michael_B*
Inventar
#315 erstellt: 17. Okt 2013, 01:50
Ich bin jetzt nicht so der Fachmann was Skalieralgorithmen angeht. Durchaus möglich, dass JVC den 2K-Content einer Bluray auf echtes 4K hoch rechnet, bearbeitet und dann auf diese "EShift"-Auflösung zurück rechnet. Da bin ich komplett überfragt.

Aber ich hätte einen leicht hinkenden Vergleich, der meinen Gedankengang vielleicht anschaulicher macht: Ich hatte mal einen Sharp Z201. Das war ein DLP mit sogenanntem Matterhorn-DMD, also 1.024x576 Pixel. Das gute, alte PAL hat digital 576 Bildzeilen und 720 Punkte pro Zeile. Anamorphes Video wurde also auf die 1.024 Bildpunkte skaliert um auf 16:9 zu kommen (es mussten Pixel "erfunden" werden). Hat man allerdings HD zugespielt war das Bild gegenüber PAL deutlich schärfer und detailreicher, obwohl der Projektor gar nicht alle Pixel anzeigen konnte. Wie gesagt, der Vergleich hinkt, weil der Sharp natürlich alle Pixel scharf abgrenzen kann. Aber das Prinzip ist für mich ähnlich. Nur eben mit einem Weichzeichner drüber. Sozusagen.

MfG
Michael
George_Lucas
Inventar
#316 erstellt: 17. Okt 2013, 08:29
Das Thema E-Shift von JVC in den mit 4K beworbenen Projektoren möchte ich an dieser Stelle gerne beenden, weil es mit dem doch schon sehr umfangreichen Thema HDMI und HDCP nichts zu tun hat. Darüber hinaus wurde es in den JVC-Threads zur Genüge durchgekaut.

Wir können das Thema E-Shift aber gerne in einem neuen Thread weiter diskutieren. Ich bin dabei. Spannend genug ist die Thematik.

Hier hatte ich die Funktionsweise von E-Shift bereits erklärt. Auch auf die Farbüberlagerungen bin ich eingegangen, von denen Alf-72 hier berichtet hat.
E-Shift 2K vs. nativer 4K-Darstellung


[Beitrag von George_Lucas am 17. Okt 2013, 08:30 bearbeitet]
Alf-72
Inventar
#317 erstellt: 17. Okt 2013, 10:32
@Michael_B
Ja... es wird fleißig skaliert und berechnet... also ähnlich Deinem Vergleich
predator4k
Stammgast
#318 erstellt: 17. Okt 2013, 13:04
hier mal die bitraten von FULL HD ... Ultra HD und Super Hi Vision über HDMI ..

http://www.google.de...172&biw=1366&bih=626

zitat " By applying 4:2:2 subsampling to our prior high bit-depth content example—a UHD image at 60 fps with full 36-bit color depth and 32 audio channels—we now only need 12.02 Gb/sec of bandwidth. Using 4:2:0 drops that requirement to 9.03 Gb/sec. "

9,03 gbits .. ha.. reicht für HDMI 1.4
Nudgiator
Inventar
#319 erstellt: 17. Okt 2013, 15:26

predator4k (Beitrag #318) schrieb:

zitat " By applying 4:2:2 subsampling to our prior high bit-depth content example—a UHD image at 60 fps with full 36-bit color depth and 32 audio channels—we now only need 12.02 Gb/sec of bandwidth. Using 4:2:0 drops that requirement to 9.03 Gb/sec. "

9,03 gbits .. ha.. reicht für HDMI 1.4


Es war ja schon die ganze Zeit klar, daß 4k@50/60Hz mit 4:2:0 über HDMI1.4 funktioniert
DasDing)
Hat sich gelöscht
#320 erstellt: 17. Okt 2013, 15:43
wie ist denn der zu erwartenden "bildqualitätsverlust" bei reduzierter farbabtastung?? also wenn 4k so abgespeckt wird, das es mit hdmi 1.4 funktioniert??
leon136
Hat sich gelöscht
#321 erstellt: 17. Okt 2013, 16:01

predator4k (Beitrag #318) schrieb:
hier mal die bitraten von FULL HD ... Ultra HD und Super Hi Vision über HDMI ..

http://www.google.de...172&biw=1366&bih=626

zitat " By applying 4:2:2 subsampling to our prior high bit-depth content example—a UHD image at 60 fps with full 36-bit color depth and 32 audio channels—we now only need 12.02 Gb/sec of bandwidth. Using 4:2:0 drops that requirement to 9.03 Gb/sec. "

9,03 gbits .. ha.. reicht für HDMI 1.4


irgendwie kommt mir das reichlich Überzogen vor wer hat den 32 Audio Kanäle und eine normale BlueRay kann ich doch jetzt schon durch ein schnödes Netzwerkkabel prügeln und selbst bei doppelter Auflösung müßte das noch gehen.
Nudgiator
Inventar
#322 erstellt: 17. Okt 2013, 16:10
Das macht schon Sinn ! Mit 8 Bit kannst Du nur 256 Graustufen darstellen. Das ist zu wenig, um einen perfekten Farbverlauf darstellen zu können.
James_Cameron
Hat sich gelöscht
#323 erstellt: 17. Okt 2013, 16:15
Und damit könne auch Details verloren gehen und das Bild wirkt plakativ. Das kann man heute schon mit BR beobachten.
George_Lucas
Inventar
#324 erstellt: 17. Okt 2013, 16:15

DasDing) (Beitrag #320) schrieb:
wie ist denn der zu erwartenden "bildqualitätsverlust" bei reduzierter farbabtastung?? also wenn 4k so abgespeckt wird, das es mit hdmi 1.4 funktioniert??

In der Praxis wird das kaum jemand als Nachteil wahrnehmen. Auch unsere Blu-rays besitzen nur eine Farbabtastung von 4:2:0 mit 8 Bit. Unser Auge ist bezüglich der Farbdarstellung sehr "kulant".
Wenn es hier zu "Banding-Effekten" oder "Solarisation" kommt, sind die Quelldateien meist zu stark komprimiert worden.
Störender sind für viele eher Helligkeitsunterschiede/Fehler nahe Schwarz. Hier reagiert das menschliche Auge sehr viel "empfindlicher".
Projektormann
Hat sich gelöscht
#325 erstellt: 17. Okt 2013, 16:16
predator4k schreibt:

zitat " By applying 4:2:2 subsampling to our prior high bit-depth content example—a UHD image at 60 fps with full 36-bit color depth and 32 audio channels—we now only need 12.02 Gb/sec of bandwidth. Using 4:2:0 drops that requirement to 9.03 Gb/sec. "

Mag ja für Kinos und Veranstaltungen sinnvoll sein, aber im Wohnzimmer 32 Audiokanäle . Damit würde man seine Frau vermutlich zum Scheidungsanwalt oder in den Wahnsinn treiben .
Gruss,
Richard


[Beitrag von Projektormann am 17. Okt 2013, 16:17 bearbeitet]
George_Lucas
Inventar
#326 erstellt: 17. Okt 2013, 16:28

Projektormann (Beitrag #325) schrieb:
im Wohnzimmer 32 Audiokanäle

Das wird kommen. Für 4K/60 Hz mit 4:2:0 und mind. 10 Bit (nach ITU-R BT.2020) inkl. >10-Kanal-Ton wie Dolby Atmos ist HDMI 2.0 mit 18 GBit/s zwingend notwendig.
Ob allerdings die Masse der Menschen bereit ist, sich Lautsprecher und Subwoofer an die Wohnzimmerdecke zu hängen, darf bezweifelt werden.
Für einen kleinen Teil von Heimkinobegeisterten mag das aber interessant sein.

Da Dolby aus dem Kino nahezu verdrängt wurde, aufgrund der DCI-Spezifikation, suchen sie halt neue Märkte. Einer davon ist Dolby Atmos. Mit aller Gewalt versucht Dolby, dieses Soundsystem im Kino durchzudrücken. Aber auch hier tun sich Kinobetreiber inzwischen schwer, mehr als wenige "Referenzsäle" entsprechend auszustatten. Nach der (teuren) Umstellung auf Digitalprojektoren und 3D, können viele Kinobetreiber keine > 50.000 Euro für dieses Soundsystem mehr ausgeben.

Einen Termin zur Markteinführung im Heimkino wollte Dolby auf der IFA-PREVIEW in Hamburg aber nicht nennen.


[Beitrag von George_Lucas am 18. Okt 2013, 00:28 bearbeitet]
leon136
Hat sich gelöscht
#327 erstellt: 17. Okt 2013, 16:33

George_Lucas (Beitrag #326) schrieb:
(...)

Deshalb ist es auch total Praxisfremd da hätte mann lieber einen gesonderten Standart fürs Kino machen
sollen, dann hätte es vielleicht diesen ganzen Hickhack um HDMI 2.0 nicht gegeben.

leon

EDIT Mod.: Unnötiges Fullquote entfernt.


[Beitrag von Hüb' am 17. Okt 2013, 17:04 bearbeitet]
James_Cameron
Hat sich gelöscht
#328 erstellt: 17. Okt 2013, 16:41
Bevor jetzt wieder Sensationen und Gerüchte rund um Dolby Atmos im heimischen Wohnzimmer gestreut werden folgendes Zitat:

"Because the technology scales up and down, it can bring benefits to home theaters using far fewer speakers, Bowling said. Dolby is researching how the technology could be applied in the home and whether it could be used in optical discs and video streaming, he said.

Even in home theater systems with a traditional 7.1-speaker setup, Atmos would deliver more precise placement of sound, Bowling said in response to a question. The company is still researching whether overhead speakers would be needed in the home. The technology could also be applied to headphone playback, he added.

But there are no plans for migrating the technology to Home Theaters, said Stuart Bowling, Dolby’s senior worldwide technical marketing manager."


[Beitrag von James_Cameron am 17. Okt 2013, 16:41 bearbeitet]
leon136
Hat sich gelöscht
#329 erstellt: 17. Okt 2013, 16:54
Also nix mit Dolby Atmos zu Hause mit 32 Audiokanäle.


[Beitrag von leon136 am 17. Okt 2013, 16:56 bearbeitet]
leon136
Hat sich gelöscht
#330 erstellt: 17. Okt 2013, 20:25
Ihr müsst mir mal auf die Sprünge helfen, was ich noch nicht so richtig geschnallt habe sind diese
aberwitzigen Bandbreiten bei HDMI 2.0
War das jetzt ein Zugeständnis unter anderem auch an Dolby um ihr neues Atmos System leichter in die Kinos zu bringen? Ich dachte immer das dort eher mit Server Technik gearbeitet wird und die Zuspielung
über Festplatten abläuft.

mfg leon
*Michael_B*
Inventar
#331 erstellt: 17. Okt 2013, 23:14

George_Lucas schrieb:
Wenn es hier zu "Banding-Effekten" oder "Solarisation" kommt, sind die Quelldateien meist zu stark komprimiert worden.


Das macht Sinn. Bei manchen Filmen ist deutliches Banding in Verläufen zu sehen während es bei anderen Filmen nicht oder nur sehr schwach vor kommt.


George_Lucas schrieb:
Störender sind für viele eher Helligkeitsunterschiede/Fehler nahe Schwarz. Hier reagiert das menschliche Auge sehr viel "empfindlicher".


Das Auge vielleicht noch nicht einmal, aber "unten rum" ist die Auflösung bei 8 Bit wegen dem Verlauf der Gammakurve IMHO wohl stark beschränkt.

MfG
Michael
Humm67
Hat sich gelöscht
#333 erstellt: 17. Okt 2013, 23:44

Da Dolby aus dem Kino nahezu verdrängt wurde, aufgrund der DCI-Spezifikation, suchen sie halt neue Märkte.
wie meinst du das??
carstenkurz
Stammgast
#334 erstellt: 18. Okt 2013, 00:13
HDMI2.0 und ATMOS haben garnix miteinander zu tun. Auch die 32 Kanäle sind kein Zugeständnis an ATMOS, das läuft da ganz anders. Dafür ist ATMOS auch noch viel zu weit von der Heimanwendung weg, als dass die HDMI sich damit beschäftigt hätte.
Die hohen Bandbreiten sind ausschließlich nötig für 4k bei 60Hz aus Spielkonsolen, Computern und UHD Receivern und bei hohen Farbtiefen/4:4:4 Übertragung. Für Filme aus 2k oder 4k BluRays bei 24fps würde auch HDMI 1.4 reichen.

- Carsten


[Beitrag von carstenkurz am 18. Okt 2013, 00:17 bearbeitet]
Master468
Inventar
#335 erstellt: 18. Okt 2013, 00:21

Das Auge vielleicht noch nicht einmal, aber "unten rum" ist die Auflösung bei 8 Bit wegen dem Verlauf der Gammakurve IMHO wohl stark beschränkt.

Mit einer Gammakorrektur, die eine Gamma 2.2 Tonwertkurve auf Ausgabeseite unterstellt, ist die Tonwertdichte – in Bezug auf die menschliche Helligkeitswahrnehmung – in den Tiefen bereits zu hoch. Die L* Charakteristik (entspricht der Helligkeitsverteilung in CIELAB) weist hier größere Sprünge auf.

Gruß

Denis


[Beitrag von Master468 am 18. Okt 2013, 00:27 bearbeitet]
George_Lucas
Inventar
#336 erstellt: 18. Okt 2013, 00:23

Humm67 (Beitrag #333) schrieb:

Da Dolby aus dem Kino nahezu verdrängt wurde, aufgrund der DCI-Spezifikation, suchen sie halt neue Märkte.
wie meinst du das??

Der heutige und zukünftige Audio-Standard im "Digitalen"-Kino ist 16-Kanal LPCM. Das ist im offenen DCI Standard dokumentiert.

Die verlustbehaftet komprimierten Dolby Digital- und DTS-Tonformate (wie Dolby Digital 5.1 oder DTS ES) kommen darin nicht vor - und verschwinden mit der Abschaffung des 35mm Filmbands aus dem Kino!
DTS hat daher schon 2011 seine Aktivitäten im Kino eingestellt und die Sparte an Datasat verkauft. Seither ist bei 35mm Filmband DATASAT aufgeführt.
Aber auch DATASAT ist im offenen DCI Standard nicht dokumentiert und wird nach Einstellung der Filmbandkopienlieferungen aus dem Kino verschwinden.

Auf dem DCP ist ausschließlich PCM. Kein Dolby! Kein DTS! Kein DATASAT! Kein SDDS!

Um nicht aus dem Kino gänzlich verdrängt zu werden, hat Dolby nun das Atmos-System entwickelt. Die Dolby Atmos Ton-Mischung liegt separat als DCI-konforme Datei dem DCP mit bei. Während der Wiedergabe wird der Atmos-Tonmix auf den Atmos-Prozessor gestreamt und von dort über diverse Endstufen wiedergegeben.

Auf diese Weise bleibt Dolby dem Kino erhalten.



carstenkurz schrieb:
Die hohen Bandbreiten sind ausschließlich nötig für 4k bei 60Hz aus Spielkonsolen, Computern und UHD Receivern und bei hohen Farbtiefen/4:4:4 Übertragung. Für Filme aus 2k oder 4k BluRays bei 24fps würde auch HDMI 1.4 reichen.

Wobei ich hier ergänzen möchte, dass es (noch!) keine Spielekonsolen gibt, die Games mit 4K/60 Hz wiedergeben können, im Gegensatz zum PC.


carstenkurz schrieb:
Für Filme aus 2k oder 4k BluRays bei 24fps würde auch HDMI 1.4 reichen.

Sobald 4K-Filme den neuen Kopierschutz (HDCP 2.2) nutzen, reicht HDMI 1.4 nicht mehr aus. Hier sind HDMI 2.0 und HDCP 2.2 (Chip) zwingend notwendig - und zwar von allen Geräten innerhalb der Wiedergabekette. Ansonten wird entsprechend kodiertes Kontent gar nicht oder nur in SD-Qualität wiedergegeben.



[Beitrag von George_Lucas am 18. Okt 2013, 09:43 bearbeitet]
*Michael_B*
Inventar
#337 erstellt: 18. Okt 2013, 00:57

Master468 schrieb:
Mit einer Gammakorrektur, die eine Gamma 2.2 Tonwertkurve auf Ausgabeseite unterstellt, ist die Tonwertdichte – in Bezug auf die menschliche Helligkeitswahrnehmung – in den Tiefen bereits zu hoch. Die L* Charakteristik (entspricht der Helligkeitsverteilung in CIELAB) weist hier größere Sprünge auf.


Kannst Du das noch mal einfacher erklären? Ich bin kein Techniker...

MfG
Michael
Master468
Inventar
#338 erstellt: 18. Okt 2013, 01:02

Kannst Du das noch mal einfacher erklären? Ich bin kein Techniker..

Mit einer Gamma 2.2 Tonwertkurve stehen schon vglw. viele Tonwerte in den Tiefen zur Verfügung. Im Hinblick auf die menschliche Helligkeitswahrnehmung wird es eher in den Lichtern zu grob. Wobei eine 8bit Quantisierung natürlich auch bei bestmöglicher Verteilung (L*; im Videobereich nicht vorgesehen – z.B. aber für den RGB-Arbeitsfarbraum ECI-RGB v2) und verlustfreier Verarbeitung keine idealen Übergänge garantieren kann.

Gruß

Denis


[Beitrag von Master468 am 18. Okt 2013, 01:06 bearbeitet]
ANDY_Cres
Inventar
#339 erstellt: 18. Okt 2013, 01:08

leon136 (Beitrag #329) schrieb:
Also nix mit Dolby Atmos zu Hause mit 32 Audiokanäle.


Nabend,

weil du fragst und ggf. andere User im Zusammenhang interessiert
Nun das ist so im Zwischenbereich (Kino/Consumer) käuflich zu erwerben.
http://www.stormaudio.com/en/products/surround-processors/7788-ssp-16-3d.html

Ein 16 Kanal Dekoder, der das 3D Tonformat "Auro 3D" erfüllt.
Marke "Storm Audio"....tolle Sachen.

Das ist das konkurierende System zu Dolby Atmos und generell weniger verbreitet, wenn man die Handvoll Systeme hier in D mal so neutral betrachtet.
Auro 3D hat Barco entwickelt und nimmt auch DTS mit ins Boot.
Dolby Atmos hat den großen Vorteil der Punktquellen LS Ansteuerung z.B, während Auro 3D etwas einfacher gestrickt ist in der LS Verwaltung.
Auch ist Christie (als Dritter im Bunde) mit "Vive Audio" noch am Start.

Generell ist das ein 11.1 Signal (ähnli. Kino) was dann entspr. an die Lautsprecher vernetzt wird.
Das Storm Teil kann dann sogar 5 weitere Subwoofer verwalten, neben den Rest LS.
Und er kann aus bereits "Home" Signalen (von BD) mit Audyssey DSX oder DTS/Neo/X, die anderen Kanäle per Matrixsteuerung aufarbeiten/ergänzen.
Einige entspr. kodierte BD Scheiben gibt es auch schon (Red Tails mit Auro 3D), wobei es wohl schon generell über 60 Filme gibt (Kino), wo eins dieser 3D Audioformate vohanden ist.
Überhaupt wird sich zeigen, welches Format sich am Ende durchsetzen wird.
(ähnli. Bluray zu HD-DVD....das hatten wir schon einmal).

Die Paar mehr Lautsprecher , der Spieltrieb wird somit wieder wachsen.

ANDY


[Beitrag von ANDY_Cres am 18. Okt 2013, 01:12 bearbeitet]
*Michael_B*
Inventar
#340 erstellt: 18. Okt 2013, 01:14

Wobei eine 8bit Quantisierung natürlich auch bei bestmöglicher Verteilung und verlustfreier Verarbeitung keine idealen Übergänge garantieren kann.


Also geht es doch vor allem um die 8-Bit-Geschichte und weniger um die nicht lineare Gammakurve?

MfG
Michael
Master468
Inventar
#341 erstellt: 18. Okt 2013, 01:16

Also geht es doch vor allem um die 8-Bit-Geschichte und weniger um die nicht lineare Gammakurve?

Eine lineare Tonwertkurve (also Gamma 1.0) wäre gerade bei einer 8bit Quantisierung absolut katastrophal. Insgesamt ist eine Gamma 2.2 Tonwertkurve schon recht effizient, auch wenn es bessere Charakteristika gibt. Sehr deutliche Verbesserungen sind erst mit höherer Quantisierung (10bit sind schon völlig hinreichend) zu erwarten.

Gruß

Denis


[Beitrag von Master468 am 18. Okt 2013, 01:23 bearbeitet]
*Michael_B*
Inventar
#342 erstellt: 18. Okt 2013, 01:37
@master468:

Wie funktioniert es eigentlich auf Seiten der Displays? Arbeiten die intern linear?

MfG
Michael
George_Lucas
Inventar
#343 erstellt: 18. Okt 2013, 09:33

Klausi4 (Beitrag #332) schrieb:

Alles zusammen bestätigt mir, dass gerade die überfällige 10-Bit-Erweiterung NICHT dem Bandbreiten-Sparen geopfert werden sollte, wenn man vom 4K-Beamer-Großbild noch was haben soll...

Im Grunde ist das so nicht vorgesehen und von der ITU auch gar nicht gewollt.
Die ITU hat für den 4K- und 8K-Standard für das Home Entertainment (ITU-R BT.2020) 10 Bit und 12 Bit festgeschrieben.

Allein die HDMI-Association hat diese Vorgabe auf 8 Bit runtergebrochen. Das waren Zugeständnisse an den Broadcastbereich und andere Teile der Industrie. Erste japanische TV-Sender hatten vor kurzem angekündigt, mit 4K/60 Hz/8 Bit/Farbabtastung 4:2:0 senden zu wollen. Auch das Streaming-Angebot von Sony wird (wahrscheinlich) 8 Bit nutzen.
Darüber hinaus sollen HDMI 1.4-Chips mit HDMI 2.0-Kennungen weiter genutzt werden. Und damit ist für 4K/60 Hz-Kontent 8 Bit zwingend notwendig, damit die Bandbreite von 10,2 GBit/s der (modifizierten) HDMI 1.4-Chips ausreicht.

Für Spielfilme mit 4K Bildauflösung ist das alles unwichtig. Diese liegen bislang in 24 Hz vor - und dafür ist die (auch modifizierte) HDMI 1.4-Schnittstelle ausreichend dimensioniert, um (kopiergeschützte) Filme mit 10 Bit und 4:2:2 wiedergeben zu können.


[Beitrag von George_Lucas am 18. Okt 2013, 18:06 bearbeitet]
leon136
Hat sich gelöscht
#344 erstellt: 18. Okt 2013, 19:20
@ Andy_cres

ich hatte eigentlich vermutet das HDMI 2.0 wegen dieser Audio Geschichte eine so hohe Bandbreite brauch,
aber das hat sich ja nun für mich geklärt. Danke für Deine Erklärung 11.1 ok aber bitte nicht 32.0

leon
P.s Ich hab mir den Decoder mal angeschaut das Ding kann ja richtig was, naja der Preis vermutlich auch.


[Beitrag von leon136 am 18. Okt 2013, 19:40 bearbeitet]
George_Lucas
Inventar
#345 erstellt: 21. Okt 2013, 10:56
Da es neben den Projektoren auch TV-Geräte gibt, die 4K-fähig und bereits erhältlich sind, will ich die offizielle Info nicht vorenthalten, die ich heute von Sony bezüglich des Kopierschutzes (HDCP 2.2) erhalten habe:



Unser offizielles Statement zum Thema Kopierschutz ist vergleichbar mit dem der Projektor-Kollegen: kein Kommentar…

Quelle: Sony, Pressestelle (per E-Mail)


Damit lässt Sony die eigenen Kunden weiterhin im Unklaren darüber, ob zukünftig erscheinende kopiergeschützte 4K-Filme überhaupt abspielbar sind.
Das Eingangsposting habe ich entsprechend editiert.


[Beitrag von George_Lucas am 21. Okt 2013, 11:13 bearbeitet]
Faulkner
Inventar
#346 erstellt: 21. Okt 2013, 11:11
Tjoa ... , und der Kunde sagt dann halt : Kein Interesse.
James_Cameron
Hat sich gelöscht
#347 erstellt: 21. Okt 2013, 13:21
Ich denke nicht, daß Sony seine Kunden im Unklaren lässt:

kein Kommentar = kein HDCP2.2 = nicht kaufen


[Beitrag von James_Cameron am 21. Okt 2013, 13:22 bearbeitet]
Nudgiator
Inventar
#348 erstellt: 21. Okt 2013, 13:23
@James

Das sehe ich genauso, andernfalls könnte man es ja offiziell mittteilen ...
James_Cameron
Hat sich gelöscht
#349 erstellt: 21. Okt 2013, 13:34
Ich interpretiere die Aussage von Sony so:
Es wird zu 100% darauf hinauslaufen, daß jeder TV/Projektor der mittels kostenlosem FW-Update auf HDMI2.0-Light getrimmt wird kein HDCP2.2 an Bord haben wird. Lediglich die Geräte bei denen das HDMI2.0 Update per kostenpflichtigem Hardwaretausch erfolgt werden von HDCP2.2 profitieren können.

Um für den Kunden keine Verwirrung zu stiften (wohl eher um die Absatzzahlen der "billigen" 4k-Geräte nicht zu gefährden) läuft das informell alles unter dem Deckmäntelchen des Schweigens ab. Danke Sony!
oto1
Hat sich gelöscht
#350 erstellt: 21. Okt 2013, 14:09

Nudgiator (Beitrag #348) schrieb:

Das sehe ich genauso, ...

Ich nicht!
Warum, die chips für HDCP2.2 sind doch schon länger zu bekommen, auch ist bekannt das diese in zukunft benötigt werden. Sind die hersteller wirklich so blöd, daran nicht gedacht zu haben? (dazu hätte ich gerne eure meinung)

Jetzt stellt sich mir die frage warum GL so eine antwort bekommt Ich unterstelle, da sich GL in den foren so neagtiv geäusert hat, das sony jetzt einfach keinen bock hat fragen von ihm zu beantworten.

Natürlich ist das reine spekulation von mir, doch spekuliert wird hier ja andauernt, wer, wann, was, wie rausbringt mit gesundem menschenverstand kann sich jeder denken was als nächstes kommt
Nudgiator
Inventar
#351 erstellt: 21. Okt 2013, 14:25

oto1 (Beitrag #350) schrieb:
Warum, die chips für HDCP2.2 sind doch schon länger zu bekommen, auch ist bekannt das diese in zukunft benötigt werden. Sind die hersteller wirklich so blöd, daran nicht gedacht zu haben? (dazu hätte ich gerne eure meinung)


In der letzten Ausgabe der c't gab es einen recht interessanten Artikel zu HDMI2.0/HDCP2.2. Man hat dort alle Hersteller bezüglich HDMI2.0/HDCP2.2 angefragt, aber nur eine "kleine, unbedeutende Klitsche" hat diesbzüglich HDCP2.2 bejaht. ALLE (!) großen Hersteller hielten sich bedeckt und gaben keinerlei Auskunft ! Daher meine Gegenfrage: WARUM ??? IMHO hat man wohl gedacht, daß der Early-Adopter das eh nicht mitbekommt, da es noch keinen entsprechenden Content mit HDCP2.2 gibt. Mich würde es daher nicht wundern, wenn man JETZT die Geräte entsprechend auf HDCP2.2 umrüstet.
Danizo
Inventar
#352 erstellt: 21. Okt 2013, 15:08
Ich denke, wenn ein Thema "unter Geheimhaltung" steht...dann HDCP 2.2
Kann mir sehr gut vorstellen, das alle großer Hersteller hier nicht die "Bohne"
an Informationen freigeben. Ganz einfach, weil die Gefahr einfach zu groß wäre
schon jetzt ein Problem mit "geleakten Masterkey´s" oder sonst was zu bekommen.
Das ein Service Mitarbeiter der Pressestelle schnell mal Falsches verbreitet, ist doch
schon öfters vorgekommen. Nun erwarten hier Einige, obwohl noch nicht mal wirklich
Testgeräte bei den Händler sind, das 100% Aussagen von den Herstellern kommen.
Wäre ja schön, aber ich denke das ist zuviel verlangt.
Gebt der Sache doch einfach noch etwas Zeit....oder juckt euch die Kohle dermaßen
in der Hose ?

Ich lasse mich da nicht verrückt machen....
Hab mir ´nen 4K TV geholt und geniese jeden Tag ein super schönes 2K zu 4K Bild.
Bin glücklich... ...und bis 4K mit HDCP 2.2 draußen ist....ist der TV eh schon
2 - 3 Jahren alt....wetten?!

Die ganze HickHack hier in dem Thread hat teilweise Sandkasten Niveau.
Überraschend das sich daran auch Händler beteiligen. Hätte mir hier lieber eine
Antwort auf meine Angebotanfragen gewünscht. Von 4 Händlern in Deutschland,
hat mir nur einer geantwortet. ...und es ging hier nicht gerade um Peanuts... nun gut
Im Sachen YouTube Videos und Streit in Forum sind sie um vieles aktiver als im Angebote
schreiben...

Ist bis zu Erscheinen der JVC´s und Sony´s keine Aussage im Haus (immerhin geht es
um 5000 - 10000,- € in meinem Fall)...dann kauf ich halt noch keinen und warte ein paar
Monate. Solange beniese ich 1080p auf meiner Leinwand oder TV und lese hier einfach
interessiert mit. Hat jemand noch keinen Beamer...dann kann ich nur aus eigener Erfahrung
sagen, ruhig bleiben...überlegt mal wie lange ihr ohne Beamer ausgekommen seit.

So long....
Faulkner
Inventar
#353 erstellt: 21. Okt 2013, 15:09
Man hat wohl vor allem darauf gehofft, dass es keiner mitbekommt - das ging schief.

Aber was soll's, das Hifi-Forum ist ja eh' nicht repräsentativ, die technischen Probleme die hier angesprochen werden sind ja für die Hersteller ohnehin ohne Belang und interessieren dort niemanden.
*Beta_Tester*
Stammgast
#354 erstellt: 21. Okt 2013, 16:02
OK, aber uns hat's geholfen.

Danke für die Info. Hatte mir schon sowas gedacht. Wenn HDCP2.2 drin wäre, hätte man es auch offiziell gesagt.
Danizo
Inventar
#355 erstellt: 21. Okt 2013, 16:14
<<Wenn HDCP2.2 drin wäre, hätte man es auch offiziell gesagt. >>

Womit sich wieder mal der Kreis schließt und das Ganze hier wieder von
vorne los geht
*Beta_Tester*
Stammgast
#356 erstellt: 21. Okt 2013, 16:30
Tja, war eben von Anfang an richtig.
George_Lucas
Inventar
#357 erstellt: 21. Okt 2013, 17:25

Im Hifi-Forum und im Beisammen.de wurde von dem Mitglied GEORGE LUCAS ein vermeintlich gut recherchierter Bericht zu den neuene notwendigen technischen Schnittstellen von ULTRA HD / 4 K geschrieben. Hier wird unter die Vermutung aufgestellt, dass die neuen SONY Projektoren den neuen HDCP Kopierschutz 2.2 nicht unterstützen und somit bei zukünftigen 4K Quellen der Projektor diese nicht wiedergeben könnte. Wir haben dieses Thema bereits mehrfach mit unseren Ansprechpartner von SONY besprochen und heute - 2-10-2013 -
die schriftliche Bestätigung erhalten, dass die 4K Projektoren VW 1000 (mit neuem Board), VW 500 und VW 1100 diesen Standard unterstützen werden.

Quelle: Grobi TV



Mir stellt sich jetzt zunehmend die Frage:

Wenn ein Händler auf seiner Website schreibt: "Natürlich unterstützt das Gerät HDCP 2.2! Die Info haben wir schriftlich von unserem Ansprechpartner bei Sony!" - Und nach 1,5 Jahren stellt sich heraus, dass das Gerät nun doch nicht Filme mit neuem Kopierschutz (HDCP 2.2) abspielen kann, wer tritt dann in die Haftung?
Kann der Kunde vom Verkäufer kostenlose(!) "Nacherfüllung" verlangen, weil er seine zugesicherte Leistung nicht eingehalten hat? - Oder kann der Händler sagen: "Wir haben unsere Info auch nur von Sony. Da haben Sie eben Pech gehabt."

Immerhin reden wir hier nicht von einem Blu-ray-Player für 69 Euro...


[Beitrag von George_Lucas am 21. Okt 2013, 17:51 bearbeitet]
*Michael_B*
Inventar
#358 erstellt: 21. Okt 2013, 17:29

nudgiator schrieb:
In der letzten Ausgabe der c't gab es einen recht interessanten Artikel zu HDMI2.0/HDCP2.2. Man hat dort alle Hersteller bezüglich HDMI2.0/HDCP2.2 angefragt, aber nur eine "kleine, unbedeutende Klitsche" hat diesbzüglich HDCP2.2 bejaht. ALLE (!) großen Hersteller hielten sich bedeckt und gaben keinerlei Auskunft ! Daher meine Gegenfrage: WARUM ???


Ich bin kein Techniker, soweit klar. HDMI und HDCP sind wohl eigentlich zwei paar Schuhe, aber meiner Meinung nach muss man die trotzdem zusammen sehen weil es für mich anders erst mal keinen Sinn macht

Mein Versuch einer Antwort auf diese Geheimniskrämerei:


surroundman schrieb:
Im übrigen wird kein Hersteller je mit einer HDMI 2.0 Schnittstelle in einem Prospekt werben, da er es seitens der HDMI Organisation gar nicht DARF ! Es dürfen lediglich die Optionen, die mit der Schnittstelle möglich sind, beworben werden.


Dementsprechend wird man auch von keiner Pressestelle eine sinnvolle Antwort darauf erhalten, was da in den Projektoren wirklich drin steckt. Aber es wird mit 4K/60hz/4:2:0 geworben. Passt für mich erst mal ins Bild.

MfG
Michael
leon136
Hat sich gelöscht
#359 erstellt: 21. Okt 2013, 18:52
HDMI 2.0 ist ja an sich keine schlechte Sache mehr Bandbreite kann nie Schaden.
Aber das Kopf an Kopf Rennen zwischen Hackern, Raubkopieren und Industrie und Filmstudios steht auf
einem anderen Blatt Papier.
Ich frage mich nur warum so ein luschiger Sender wie Sky es hinbekommt seine Sender zu schützen
und ein Konsortium aus Mega Konzernen und Filmstudios dazu nicht in der lage ist und jedes mal das Rad
(Kopierschutz) neu erfunden werden muss.

leon
Suche:
Gehe zu Seite: |vorherige| Erste . 3 4 5 6 7 8 9 10 11 12 . 20 Letzte |nächste|
Das könnte Dich auch interessieren:
Benq th861 hdcp 2.2 fähig?
donco* am 02.02.2020  –  Letzte Antwort am 11.02.2020  –  9 Beiträge
HDMI 2.0 HDCP 2.2 1080p 120Hz Beamer (Acer G550/V6520, Optoma HD29H)
Wiidesire am 27.03.2019  –  Letzte Antwort am 03.03.2020  –  3 Beiträge
Epson TW6600 - Marantz NR1606: HDCP 2.2 Fehler
michel7777777 am 03.01.2024  –  Letzte Antwort am 06.01.2024  –  6 Beiträge
Viewsonic PX747-4K - Blasses HDR
mfisch am 04.02.2022  –  Letzte Antwort am 05.02.2022  –  2 Beiträge
JVC wird nicht als 4K erkannt
Windowser am 22.03.2018  –  Letzte Antwort am 30.03.2018  –  22 Beiträge
HDCP nachfrage.
mocototo am 08.04.2016  –  Letzte Antwort am 08.04.2016  –  3 Beiträge
DVI und HDCP
efango24 am 24.02.2005  –  Letzte Antwort am 25.02.2005  –  4 Beiträge
Epson 9300w HDCP 3D Problem an HDMI 1&2
holck am 07.11.2017  –  Letzte Antwort am 08.11.2017  –  3 Beiträge
HDMI 2.0 wird durch HDMI 2.1 ersetzt, nicht geupgradet
Nunu1989 am 15.12.2021  –  Letzte Antwort am 17.12.2021  –  10 Beiträge
4k 60hz hdr testen
questler1 am 23.06.2017  –  Letzte Antwort am 10.07.2017  –  10 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.752 ( Heute: 1 )
  • Neuestes MitgliedEddiebut
  • Gesamtzahl an Themen1.551.136
  • Gesamtzahl an Beiträgen21.538.972