HDMI 2.1 Bandbreite

+A -A
Autor
Beitrag
Todesklinge
Ist häufiger hier
#1 erstellt: 09. Mai 2022, 09:29
Hi, ich habe eine Frage zur Bandbreite von HDMI 2.1.

Gibt es ein Programm (HwInfo oder do) womit man messen kann wieviel Leitungskapazität vorhanden ist? Vor allem bei der Hardware.

Meine Frage bezieht sich darauf ob:
4k@120 &10 bit mit Dolby Vision + Dolby Atmos
Von der GPU (MSI Aorus 3090 Waterforce) -> Fernseher (LG 42 V2) -> AVR (Denon X1700h) richtig übermittelt werden kann.

Denn manchmal kommt es vor als ob das Bild Fehler aufgrund mangelnder Kapazität aufweist. Was in einem ganz kurzen komisch farblichen zerreißen des Bildes sich äußert.

Das Kabel ist HDMI 2.1 Zertifiziert und kann auch die 48gb übertragen. Bei meiner Grafikkarte weiss ich nicht, da steht nur HDMI 2.1 da und der Denon kann nur 40gb Verarbeiten.
Nemesis200SX
Inventar
#2 erstellt: 09. Mai 2022, 16:40
würde die Bandbreite nicht reichen, dann hättest du Verbindungsabbrüche (Bildaussetzer) aber keine Bildfehler. Vermute das Problem eher bei Dolby Vision, das steckt bei Games noch in den Kinderschuhen. Und soweit ich weiß gibts das bis jetzt nur für die Xbox. Also wenn du DV irgendwie auf deiner Grafikkarte erzwingst lass das und geh auf normales HDR10.
Todesklinge
Ist häufiger hier
#3 erstellt: 09. Mai 2022, 18:15
Die Bildfehler sind wieder verschwunden.

Ich lasse nun alles über den LG C2 Monitor laufen, der zugleich das Dolby Atmos zum AVR durchschleift.
Es ist komisch das bei meinem Denon X1700h nur "DDS" angezeigt wird obwohl es Dolby Atmos hat und eingerichtet ist. Ich kann es auch ganz klar hören. Ist das normal das die Anzeige vom AVR nicht übereinstimmt?

Dolby Vision ist nativ vorhanden (der Grund für den LG C2), wenn verfügbar, funktioniert es auch prima.

Nutzt du auch das was ich habe und wie hast du das ganze eingerichtet?
Nemesis200SX
Inventar
#4 erstellt: 09. Mai 2022, 19:18

Dolby Vision ist nativ vorhanden (der Grund für den LG C2), wenn verfügbar, funktioniert es auch prima.

Wo? Am PC? Das wäre mir neu. Welches Game soll das sein und wie aktivierst du es? Ich lese von Dolby Vision ausschließlich in Verbindung mit der Xbox.


Es ist komisch das bei meinem Denon X1700h nur "DDS" angezeigt wird obwohl es Dolby Atmos hat und eingerichtet ist. Ich kann es auch ganz klar hören.

Wenn der AVR kein Dolby Atmos anzeigt dann ist es in der Regel auch kein Atmos. Was zeigt er denn an wenn die GPU direkt im dem AVR verbunden ist? Auch DDS oder Atmos?


Nutzt du auch das was ich habe und wie hast du das ganze eingerichtet?

Nö. Ich gehe mit allen Zuspielern in den AVR und nutze Standard HDR


[Beitrag von Nemesis200SX am 09. Mai 2022, 19:21 bearbeitet]
Todesklinge
Ist häufiger hier
#5 erstellt: 14. Mai 2022, 09:37
Wie kann man in Windows 11, Dolby Atmos erzwingen das dieser bei einem Neustart nicht mehr auf Stereo zurückkehrt?

Das jedes mal wieder neu einstellen zu müssen ist echt mühselig.


Ich weiss nicht ob das ein Fehler von Denon X1700h ist aber "DSur" ist identisch mit Dolby Atmos.
Gestern hat dieser das erste mal Dolby Atmos angezeigt und zuvor zu Dsur habe ich keinen Unterschied festgestellt.

Wie kann man das dauerhaft bei dem AVR erzwingen?
n5pdimi
Inventar
#6 erstellt: 14. Mai 2022, 10:05
Wenn Du in Windows eine Dolby ATMOS ausgabe erzwingst, sendet der PC einfach immer ein Dolby-MAT (PCM) Signal, welches der AVR als ATMOS erkennt. Das bedeutet nicht, dass da auch wirklich ATMOS "drin" ist. Deswegen bemerkst Du auch keinen wirklichen Unterschied.
Es ist also ziemlich sinnfrei, außer dem "tollen Gefühl", das man bekommt wenn im Display ATMOS stetht.
"Was" genau schickst Du denn als Dolby ATMOs vom PC an den AVR?

Generell ist DolbyATMOS und DolbyViions oder sogar nur HDR über einen PC nicht so trivial zu bekommen.
Nemesis200SX
Inventar
#7 erstellt: 14. Mai 2022, 10:23

Ich weiss nicht ob das ein Fehler von Denon X1700h ist aber "DSur" ist identisch mit Dolby Atmos.

Nein ist nicht identisch. DSur ist der der Denon eigene Upmixer. Wenn der am Display erscheint ist kein Atmos aktiv.

Ansonsten ist es so wie n5pdimi schreibt. Atmos kann man nicht erzwingen, es muss schon an der Quelle vorhanden sein. Ansonsten steht zwar vielleicht Atmos am Display, aber rauskommen kann dann trotzdem auch nur ein Stereo Signal.
Todesklinge
Ist häufiger hier
#8 erstellt: 14. Mai 2022, 12:57
Mir geht es darum das die Soundeinstellung bei jedem Neustart wieder auf Stereo zurück stellt. Jedes mal das wieder auf Dolby Atmos umzustellen ist sehe nervig.

Benutze Windows 11.

In regulären Spielen die kein natives Dolby Atmos haben wird auch Dsur angezeigt, dass ist ja voll ok.

Cyberpunk 2077 hat ja Dolby Atmos (so wie weitere Spiele).
Wenn ich in Dsur und Dolby Atmos eine Granate in die Luft werfe und diese dort Explosiert, höre ich die Explosion auch nur aus meinen oberen Lautsprechern. So wie es sein soll.

Bei Dsur wied am Display auch nicht PCM angezeigt (nur wenn PCM aktiv ist, wird das am Display angezeigt).

Ist Dolby Atmos vorhanden, wird mir das wie bei Dolby Vision am Fernseher als Info angezeigt.
Das ist auch korrekt so.
n5pdimi
Inventar
#9 erstellt: 14. Mai 2022, 13:33
Naja, das wird wahrscheinlich daran liegen, dass der PC direkt am TV hängt. Der Tv meldet per HDMI Protokoll zurück "ich bin ein TV", der PC: "alles klar - TV Ausgabe ist Stereo".
Nemesis200SX
Inventar
#10 erstellt: 14. Mai 2022, 14:11
Oder die Einstellung ist schlicht einfach noch verbuggt. Win11 läuft ja noch nicht so wirklich rund.

Mich würde aber immer noch interessieren wie du Dolby Vision vom PC aus bei Games verwendest. Das ist doch nach wie vor ein Xbox exklusives Feature?
Todesklinge
Ist häufiger hier
#11 erstellt: 19. Mai 2022, 02:21
Wenn ich es nicht durch meinen TV schleife, wird der AVR als zweiter Monitor erkannt, was wiederum andere Probleme verursacht, da der Bildschirm auf Monitor 1 (TV) und Monitor 2 (AVR) gleichzeitig abgegeben.

Daraus entsteht dann Bildschirm 1/2... dass ist noch viel schlimmer als rein über den Fernseher.

Umgekehrt geht es nicht, also von PC zu AVR zu Monitor (weil der yaVR nur 40gbs hat).

Dolby Vision ist nicht Xbox Eklusiv, aber es wird aktuell stärker dafür entwickelt.

Letztes PC Spiel mit Dolby Vision war Mass Effect Andromeda.
So als Beispiel, weitere Spiele folgen in Zukunft.

Mit Dolby Vision nativ meinte ich wenn entsprechend Verfügbar.
suisserolf
Ist häufiger hier
#12 erstellt: 15. Jan 2023, 01:21
Wieiviel Bit überträgt eigentlich HDMI 2.0?

Wir hatten in der Firma ein Videoprojekt mit Such-Kamera in UHD und der Entwickler, der das gebaut hat, hat ausgeführt, dass eine Leitung der HDMI-Signale = 1 Farbe maximal 6Gbps kann, was nur für 8 Bit reicht, weil 2 für die Codierung draufgehen. HDMI hat 3 Farben bei einem Pixeltakt von 594MHz.
Wenn man 10 Bit übertragen will braucht man schnellere Tansceiver-Chips.

Es kann aber sein, dass das das Limit von HDMI 1.2 war(?).
Nemesis200SX
Inventar
#13 erstellt: 15. Jan 2023, 01:27
Das kannst du nicht pauschal beantworten weil es auch von Auflösung und FPS abhängt. Je höher die auflösung und je mehr fps desto mehr Datenrate braucht es. 4k 24 FPS kann noch 10bit RGB übertragen. Bei 4K 60 FPS muss man für 10bit schon in YCbCr komprimieren. 1080p 60 FPS und 10bit RGB sind wieder keim Problem. Du siehst es steht alles in relation zueinander. Man hat eine gewisse Datenrate zur Verfügung, wie man die aufteilt ist einem selbst überlassen.


[Beitrag von Nemesis200SX am 15. Jan 2023, 01:28 bearbeitet]
dan_oldb
Inventar
#14 erstellt: 15. Jan 2023, 01:49

suisserolf (Beitrag #12) schrieb:
Wieiviel Bit überträgt eigentlich HDMI 2.0?


Maximal 14.4Gbps, https://de.wikipedia...face#Spezifikationen



Todesklinge (Beitrag #1) schrieb:
Das Kabel ist HDMI 2.1 Zertifiziert

Wenn es so ist ist es fake, siehe ebenfalls den obigen Wikipediaartikel: "Laut Lizenzbestimmungen für HDMI-Produkte dürfen diese seit dem 1. Januar 2012 nicht mehr wie früher üblich mit Versionsnummern gekennzeichnet werden."
AusdemOff
Inventar
#15 erstellt: 15. Jan 2023, 02:01

suisserolf (Beitrag #12) schrieb:
Wieiviel Bit überträgt eigentlich HDMI 2.0?

Wir hatten in der Firma ein Videoprojekt mit Such-Kamera in UHD und der Entwickler, der das gebaut hat, hat ausgeführt, dass eine Leitung der HDMI-Signale = 1 Farbe maximal 6Gbps kann, was nur für 8 Bit reicht, weil 2 für die Codierung draufgehen. HDMI hat 3 Farben bei einem Pixeltakt von 594MHz.
Wenn man 10 Bit übertragen will braucht man schnellere Tansceiver-Chips.

Es kann aber sein, dass das das Limit von HDMI 1.2 war(?).

Das ist die klassische Diskrepanz zwischen Entwickler und User. Siehe auch den Beitrag von Nemesis200SX.
HDMI als solches kennt eigentliche nur RGB und 8 bit. Egal was da an Signal übertragen werden soll.
Das ist erstmal der Rahmen (Frame) in dem man sich bewegen muss.
Welche Datenrate die Frames nun haben hängt wiederum von den HDMI-Chips selbst ab. HDMI kann heute bis zu
48 Gb/s übertragen. Zusammengenommen für alle, immer noch 8 bit, Frames.

Wie überträgt HDMI nun 10 bit und gar YPbPr welches originär von einer Blu-ray kommt?
Nun, HDMI hat keine Ahnung was in den RGB 8 bit Frames so drin steckt. Eigentlich sind es zusammengerechnet 24 bit
die da pro Frame (Datenframe, nicht Bildframe) übertragen werden. Wenn man dann noch weiß das YPbPr nicht im 4:4:4
Verfahren, sondern im 4:2:0 Verfahren übertragen wird, reichen 20 bit für die Luminanz und die Farbe aus.
Diesen Prozess bescheibt man manchmal auch als HDMI-Tunneling.

Je nachdem was ein TV anzeigt, speziell bei Menüs die sich um HDMI kümmern, steht dort RGB 4:4:4 8 bit, obwohl
ein HDR Signal mit 10 bit in YPbPr anliegt. Es wird manchmal also nicht das Nutzsignal angezeigt, sondern der HDMI-Rahmen.


Bei 4K 60 FPS muss man für 10bit schon in YCbCr komprimieren

Ich weiß Nemesis was du damit sagen wolltest. Aber kennt erstes HDMI keine Kompression und zweites
lässt sich RGB in YPbPr und wieder zurück nahezu verlsutlos mittels simpler Matrixrechnung hin und her wandeln.

Wenn du allerdings gemeint haben solltest das eine Wandlung von RGB 4:4:4 in YPbPr 4:2:0 eine Komprimierung darstellst
liegst du zwar nicht ganz falsch, nur ist der Ausdruck Komprimierung an dieser Stelle nicht richtig. Dies ist eine irreversible
(datentechnische, nicht visuelle!) Datenreduktion.

Umgekehrt macht es wenig Sinn einen Blu-ray Player dazu zu bewegen intern aus dem Quellmaterial einer Blu-ray
RGB 4:4:4 zu machen. Das macht das Signal nicht besser, verursacht aber dramatisch mehr Datenrate auf der Leitung.

Die Wandlung von YPbPr 4:2:0 nach RGB 4:4:4 überlässt man am besten dem Zielgerät. Grund hierfür ist das das interne
Processing des Zielgerätes (z.B. TV oder Projector) noch weitere Prozesse durchführt die für die Darstellung am individuellen
Gerät optimiert sind.
Suche:
Das könnte Dich auch interessieren:
Dolby Atmos und Denon AVRX1500H + LG OLED55B7D
DarkTexas am 15.04.2019  –  Letzte Antwort am 15.04.2019  –  5 Beiträge
HDMI 2.1 Kabellänge
Stromie am 21.02.2023  –  Letzte Antwort am 24.02.2023  –  10 Beiträge
Laptop < HDMI > AVR = Multi CH IN
PatrickE91 am 05.02.2017  –  Letzte Antwort am 13.02.2017  –  7 Beiträge
Dolby/DTS etc. via HDMI unter Windows 7 64 bit
reelyator am 06.10.2010  –  Letzte Antwort am 09.10.2010  –  3 Beiträge
Windows - Kein Upmixing über AVR möglich (Stereo -> 5.1)
Paddii am 11.02.2017  –  Letzte Antwort am 12.02.2017  –  3 Beiträge
Ruckeln beim Abspielen von 4K Inhalten mit i7
namxi am 29.03.2018  –  Letzte Antwort am 22.02.2021  –  8 Beiträge
[Frage/Suche] DisplayPort Verlängerung mit 120/144Hz für VR
Chucky2910 am 17.07.2019  –  Letzte Antwort am 23.07.2019  –  2 Beiträge
MSI GT752
soundvernatiker am 22.03.2012  –  Letzte Antwort am 26.03.2012  –  6 Beiträge
PC Bild über AVR / Schlechte Bildqualli
Christian_1990 am 18.08.2011  –  Letzte Antwort am 16.09.2011  –  5 Beiträge
Probleme beim Verbindungen von Denon AVR via HDMI mit Sony Vaio
fraces am 29.05.2011  –  Letzte Antwort am 29.05.2011  –  2 Beiträge
Foren Archiv

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.721 ( Heute: 9 )
  • Neuestes Mitgliedelibyss
  • Gesamtzahl an Themen1.551.068
  • Gesamtzahl an Beiträgen21.537.338