Ist Fake HDR (8bit + FRC) nützlich?

+A -A
Autor
Beitrag
lost-and-found
Ist häufiger hier
#1 erstellt: 04. Sep 2018, 15:05
Liebe Mitforisten,

eine Verständnisfrage zum "Fake HDR", das in günstigen Fernsehern (mit 8bit Panel + Frame Rate Control, um damit die fehlenden 2 Bit zu emulieren) üblich ist:

Was ist der genaue Unterschied zwischen der Paneltechnik (8bit Panel + Frame Rate Control) und HDR? Impliziert das Vorhandensein von 8bit + FRC nicht, dass das Pseudo HDR eingebaut ist?

Es gibt z.B. den Toshiba 55U6763DA, der eben ein Panel mit 8bit + FRC hat, aber kein HDR beherrscht. Wie kann das sein?

Zweite Frage: ist das Fake HDR nützlich? Sieht man zwischen einem Panel mit 8bit und einem Panel mit 8bit+FRC+HDR einen Unterschied?

Dritte Frage: ist dafür spezielles Quellmaterial notwendig, oder bringt das Fake HDR auch bei herkömmlichem Videomaterial eine sichtbare Kontrastverbesserung?

Ja, mir ist bewusst, dass es richtiges HDR (HDR10, HDR10+, Dolby Vision) erst ab 1.000 EUR aufwärts gibt (und dass hierfür dann definitiv entsprechendes Quellmaterial nötig ist). Kann ich mir aber gerade nicht leisten, also muss ich in den Billig-Gefilden unterhalb von 600 EUR bleiben
ChrisL75
Inventar
#2 erstellt: 05. Sep 2018, 06:35
Erste: Frag den Hersteller, woher sollen wir das wissen?
Zweite: Ja, HDR benötigt aber auch eine gute max. Bildhelligkeit (NITS)
Dritte: Ja
damian101
Neuling
#3 erstellt: 14. Jan 2019, 16:36
Ein Panel mit 8bit + FRC stellt den 10bit Farbraum dar, indem die Farbtöne, die zwischen denen des 8bit-Farbraums liegen (der 10bit RGB-Farbraum kann 64 mal so viele Farben darstellen wie der 8bit RGB-Farbraum) durch schnelles Wechseln der RGB-Subpixel (diese können nativ nur ein Viertel der benötigten Helligkeitszustände, die für 10bit benötigt werden, darstellen) zwischen zwei Zuständen.
Jeder Subpixel hat also vier Modi: konstant eine Helligkeitsstufe; 25% der Zeit zur höheren Heligkeitsstufe wechseln; 50% der Zeit zur höheren Helligkeitsstufe wechseln; 75% der Zeit zur höheren Helligkeitsstufe wechseln.
Das passiert so schnell, dass man dieses minimale Wechseln der Helligkeit mit bloßem Auge nicht sehen kann, während die drei Subpixel so zusammen 64 mal so viele Farben darstellen können wie ein normales 8bit-Panel.
Ich würde jederzeit auf ein natives 10bit-Panel zugunsten eines 8bit+ FRC Panels verzichten, wenn ich stattdessen eine höhere maximale Helligkeit des Displays bekommen könnte. Die ist schließlich dafür verantwortlich, wie viele Bilddetails für die Wiedergabe in der richtigen Helligkeit geopfert werden.
Die Farbtiefe hat mit der Fähigkeit, HDR-Material wiederzugeben nichts zu tun. Es gibt auch HDR-Monitore, die nur ein normales 8bit-Panel verbaut haben. Davon würde ich allerdings abraten.
Wenn ein Monitor/Fernseher nicht HDR10, HLG, HDR10+ oder Dolby Vision kompatibel ist, ist er nicht HDR-fähig. Eine DisplayHDR Zertifizierung (400, 600, 1000) garantiert auch, dass der Fernseher/Monitor mindestens den HDR10-Standard unterstützt.
Alle anderen "HDR"-Displays bieten meist nur einen Modus, der SDR-Material auf irgendeine Weise "aufhübscht". Fake-HDR eben.
Und ja, für echtes HDR benötigt man natürlich auch das passende Quellmaterial (z.B. UHD Blu-ray oder ein kompatibles Videospiel).
In einem SDR-Video sind schließlich alle Details in hellen und dunklen Flächen durch die Erhöhung des Kontrastes verschwunden.
Hat das HDR-Display eine zu geringe maximale Helligkeit, wird man zwischen SDR- und HDR- Material keine großen Unterschiede feststellen.
damian101
Neuling
#4 erstellt: 14. Jan 2019, 16:40
Besonders für Konsolen-Gamer kann ich übrigens nur den Philips Momentum (https://geizhals.de/...pab-00-a1809030.html) empfehlen. Keine Ahnung, wie sehr der als Fernseher taugt. Habe nie einen Fernseher besessen. Eine Spiele-Konsole übrigens auch nicht.


[Beitrag von damian101 am 14. Jan 2019, 16:41 bearbeitet]
blueice_haller
Ist häufiger hier
#5 erstellt: 09. Mrz 2020, 16:56
Hallo,

was passiert denn mit HDR Quellmaterial von Smartphones Fotos / Videos?
Wird das auf einem TV bzw. Monitor mit HDR 10 / 400/600/1000 schöner dargestellt als auf einem ohne HDR?

Mein älteres Samsung Galaxy S5 (SM-G901F) kann zumindest in den Kamera Einstellungen HDR bei Fotos.
Das Ergebnis ist jedoch auch JPG.
Viele aktuelle Smartphones beherrschen HDR auch bei Videos.


[Beitrag von blueice_haller am 09. Mrz 2020, 17:01 bearbeitet]
langsaam1
Inventar
#6 erstellt: 09. Mrz 2020, 21:07
HDR bei Bild Photo hat NIX aber auch so rein gar NIX mit dem Video HDR tu tun !
2 eigentlich völlig unterschiedliche Techniken

wenn also so ein HDR Bild am TV anzeigen lässt springt der nicht in den HDR Mode
Suche:
Das könnte Dich auch interessieren:
8bit vs 10bit
nahbii am 16.11.2009  –  Letzte Antwort am 16.11.2009  –  3 Beiträge
Frage zu LG 55UH950V & HDR8 + FRC
LennoxBLN am 08.09.2017  –  Letzte Antwort am 08.09.2017  –  4 Beiträge
Sony AF8 Dolby Vision Fake?
Hifialist am 02.07.2018  –  Letzte Antwort am 04.07.2018  –  3 Beiträge
8bit vs 10bit, CCFL vs. WCG-CCFL
gonzobaby am 30.12.2008  –  Letzte Antwort am 30.12.2008  –  2 Beiträge
Sind das alles Mogelpackungen? HDR TV´s bis ca. 1500.-?
Thorsten-1967 am 27.10.2016  –  Letzte Antwort am 30.10.2016  –  22 Beiträge
Günstiger Fernseher UHD + HDR + 10-bit Panel ohne Clouding
KleinerBrandy am 31.01.2020  –  Letzte Antwort am 31.01.2020  –  2 Beiträge
55" HDR
Caos am 26.04.2017  –  Letzte Antwort am 02.05.2017  –  5 Beiträge
4K HDR TV als Monitor gesucht - langsam verzweifelt !
mrmann am 28.07.2018  –  Letzte Antwort am 28.07.2018  –  5 Beiträge
HDR 10, HDR1000, Dolby Vision---was denn nun?
fbx2 am 05.12.2016  –  Letzte Antwort am 05.12.2016  –  2 Beiträge
Full HD mit HDR?
katana27 am 01.07.2016  –  Letzte Antwort am 12.09.2017  –  4 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.427 ( Heute: 2 )
  • Neuestes MitgliedSonny0034
  • Gesamtzahl an Themen1.550.044
  • Gesamtzahl an Beiträgen21.515.401

Top Hersteller in Kaufberatung Fernseher Widget schließen