Gehe zu Seite: Erste Letzte |nächste|

Warum ist LED so umstritten?

+A -A
Autor
Beitrag
Muffin72
Schaut ab und zu mal vorbei
#1 erstellt: 22. Aug 2010, 16:20
Hallo Jungs und Mädels,

ich hab jetzt schon ein paar Mal gelesen, dass LED umstritten sein soll, jedoch noch nie warum.
Kann mir das mal jemand erklären?

Merci
hagge
Inventar
#2 erstellt: 23. Aug 2010, 09:01
Meinst Du damit die LCD-Fernseher mit LED-Backlight-Technologie? Oder auf was genau spielst Du an?

Hagge
Nectron
Neuling
#3 erstellt: 23. Aug 2010, 09:31
Hi, also ich hab jetzt seit einem Jahr einen Samsung EDGE LED TV (LED´s sind im Rahmen verbaut)und bin voll zufrieden kann nur positives berichten!
Manche sprechen von clouds bildung oder Regenbogeneffekt habe davon aber nie was bemerkt. Mein Kumpel hat ein LCD TV den man aber nicht mit dem LED vergleichen kann (Bild) LED´s haben ein viel höheren Kontrast, geringere Bautiefe.
Hoffe damit helfen zu können.

Gruß
Andregee
Inventar
#4 erstellt: 23. Aug 2010, 09:47
eben weil bei edge led die ausleuchtung häufig sehr ungleich,äßig ist, ist die ganze technik umstritten.
durch die seitlich eingebauten led ist es schwieriger eine gleichmäßige ausleuchtung zu erhalten.
die einzige technik die wirklich eine bessere bildqualität mit sich bringt ist direct led.
da sitzen die leuchtdioden genau wie bei den "normalen" ccfl lcd hinter dem panel. ccfl heißt das leuchtstoffröhren hinter dem panel sitzen so wie es ursprünglich bei lcd war.
damit kann man eine bessere ausleuchtung erreichen und dunkle bildelemente gezielt dimmen um so einen höheren kontrast zu erreichen.
es ist übrigens ein trugschluß wenn man denkt das edge led lcd eine bessere bildqualität haben als normale mit leuchstoffröhren, von wegen besserer kontrast oder so.
edge led hat als vorteil die geringere bautiefe und ein wenig geringerer stromverbrauch.
bildtechnisch bringt diese technik null vorteile.
nur weil ein edge led lcd mehr kontrast hat, als der normale lcd eines kumpel, heißt das noch lang nichts.
vieleicht ist der lcd vom kumpel ein älteres oder weniger wertiges gerät. sollten vorteile vorhanden sind, liegen die nicht in der beleuchtungstechnik begründet, sondern wohl eher in einem besseren panel oder besserer elektronik.
es gibt aber auch ganz normale lcd die einen edge led den rang ablaufen können.
da edge led keine bildqualitätsvorteile bringt, aber teuer als normale ccfl lcd sind, sind sie eben umstritten.
aber menschen die einen haufen geld für ihren neuesten ach so guten led(die geburt einer neuen spezies) ausgegeben haben hören das nicht gern.
Muffin72
Schaut ab und zu mal vorbei
#5 erstellt: 23. Aug 2010, 16:54

hagge schrieb:
Meinst Du damit die LCD-Fernseher mit LED-Backlight-Technologie? Oder auf was genau spielst Du an?

Hagge


Genau dieses.

Also ich hab mir sowohl hier als auch bei anderen Quellen die Technik allgemein bzw. Unterschiede zwischen edge und full schon angeschaut und auch gelesen, dass viele Hersteller die full led schon gar nicht mehr herstellen, Samsung soll ja total auf edge setzen.
Trotzdem hab ich immer mal wieder - auch hier - gelesen, dass led generell, aber auch edge nicht unumstritten sein soll.
Manchmal liest man was von diesem Taschenlampeneffekt, manchmal beschweren sich die Leute über clouding, wobei dies ja schon bei den normalen lcd bemängelt wurde.... jedoch hab ich nie einen Thread oder Post gefunden, das mal den Grund der Umstrittenheit mal näher bringt, darum mein Thread.

Schon mal danke für die Antworten ;D
Andregee
Inventar
#6 erstellt: 23. Aug 2010, 20:43
bei einem full led werden die led in segmenten gedimmt.
sprich in dunklen bereichen wird die helligkeit reduziert, in hellen leuchten die led mit hoher intensität.
durch die abstufungen kommt es zum genannten effekt ebenso zum black crush wenn die ansteuerung unglücklich arbeitet.
denn wie soll die led arbeitetn wenn in einem segment und helle sowie dunkle bildinhalte vorhanden sind.
dimmen oder die intensität steigern?insgesamt kann man sagen das full led besser ist aber auch nachteile mit sich bringt.
egde led ist eigentlich unnütz.
da tut es auch ein ccfl gerät. diese weisen mittlerweile auch gute kontrastwerte auf.
hagge
Inventar
#7 erstellt: 24. Aug 2010, 10:15

Muffin72 schrieb:
Trotzdem hab ich immer mal wieder - auch hier - gelesen, dass led generell, aber auch edge nicht unumstritten sein soll.
Manchmal liest man was von diesem Taschenlampeneffekt, manchmal beschweren sich die Leute über clouding, wobei dies ja schon bei den normalen lcd bemängelt wurde.... jedoch hab ich nie einen Thread oder Post gefunden, das mal den Grund der Umstrittenheit mal näher bringt, darum mein Thread.

Also: ein LCD-Fernseher hat mit einer Reihe von Problemen zu kämpfen.

  1. Wenn das Panel Druck hat, z.B. durch Verspannungen nach einem waagrechten Transport, dann können sich hellere oder dunklere Stellen bilden, das sog. Clouding.

  2. Da das Bild zwischendurch nicht dunkel wird sondern die Pixel so lange in einer Farbe leuchten, bis sich der Bildinhalt ändert (sog. Hold-Type Display), hat man zwar keinerlei Probleme mit Flimmern, aber es entsteht im Auge ein Unschärfeeffekt, wenn sich das Auge bewegt, weil es z.B. einem bewegten Objekt folgt. Weil dann verwischt das immer mindestens für einen Frame lang kurzzeitig still stehende Bild auf der sich bewegenden Netzhaut, ähnlich einem verwackelten Foto.

  3. Das LCD deckt ja nur das Backlight ab, d.h. das mögliche Farbspektrum wird in erster Linie durch die Farbe des Backlights bestimmt.


Hierfür wurden nun Lösungen gesucht. Und die LEDs bieten hier eigentlich einen guten Ausweg an. Wie Du selbst sagst, gibt es hier zwei grundlegende Techniken: Edge-LED und Full-LED. Bei Edge-LED werden Leuchtdioden am Rand des Displays angebracht (also an der Kante = engl. "edge"). Bei Full-LED sind die LEDs flächig hinter dem Schirm verteilt.

Zuerst mal grundsätzlich der Vorteil von LEDs: das Farbspektrum ist i.a. größer als das von Leuchtstoffröhren (CCFLs), die in der herkömmlichen LCD-Technik verwendet wurden. Wobei es hier ein bisschen auf die Technik der LEDs ankommt. Das beste Spektrum hat man im Prinzip, wenn man RGB-LEDs benutzt. Die sind aber sehr teuer, darum werden heute weiße LEDs verwendet, und auch da gibt es verschiedene Fertigungstechniken, die mehr oder weniger positiv zum Farbspektrum beitragen. Im allgemeinen ist was das Farbspektrum angeht das LED-Backlight aber dennoch meist dem CCFL-Backlight überlegen. Das heißt Punkt 3 spricht für LED.

Die LEDs sind meist auch stromsparender als die CCFLs. Ein weiterer Vorteil. Und die LEDs kann man beliebig oft ein- und ausschalten, ohne dass es ihnen schadet. Und das geht so schnell, dass man sogar zwischen zwei Frames kurz ausschalten (sog. Blinking Backlight) kann und so das Verhalten von Röhren oder Plasmas nachempfinden kann, was der Bewegungsschärfe zugute kommt. Das heißt mit LEDs kann man Punkt 2 ganz gut bekämpfen.

Das gilt nun grundsätzlich für alle LED-Backlights. Jetzt kommen die Unterschiede. Die Edge-LEDs haben einen ganz entscheidenden Vorteil: sie ermöglichen ungemein flache Geräte. Vom Design her meist extrem elegant. Aber diesen Vorteil erkauft man sich mit einem massiven Nachteil. Denn das Licht muss ja vom Rand irgendwie hinter die Bildfläche kommen. Dazu werden Lichtleiter verwendet, die das Licht möglichst gleichmäßig verteilen sollen. Aber genau das ist der Knackpunkt. "Möglichst gleichmäßig" heißt halt in den meisten Fällen, dass tatsächlich nicht "völlig gleichmäßig" erreicht wird. Das heißt das Bild ist etwas ungleichmäßig ausgeleuchtet. Kommt hier dann noch etwas Clouding hinzu, verstärkt sich der Effekt und das Unglück ist perfekt: man hat störende helle und dunkle Stellen, die teilweise so stark sind, dass man nicht wirklich glücklich mit dem Bild ist.

Kommen die Full-LEDs. Da diese LEDs über die ganze Bildfläche verteilt sind, hat man eigentlich weniger das Problem mit ungleicher Ausleuchtung. Und man kann sich sogar noch einen weiteren Effekt zunutze machen, nämlich dass man einzelne LEDs lokal für sich heller oder dunkler schalten kann, je nach Bildinhalt. Mit dieser "Local Dimming" genannten Technik kann man den Kontrast im Bild deutlich verbessern vor allem in dunklen Bildteilen. Damit wird dann automatisch auch ein eventuell vorhandenes Clouding minimiert, denn da dieses überwiegend bei dunklen Stellen auffällt, indem das Backlight hell durchscheint, fällt dies nun weg, da in dunklen Stellen ja das Backlight sowieso gedimmt wird. Somit kann also nur Full-LED gegen Punkt 1 kämpfen.

Aus diesen Gründen wird eigentlich ein Full-LED mit Local Dimming als die momentan beste Backlighttechnik angesehen. Doch auch hier sollen zwei Nachteile nicht verschwiegen werden: der erste Nachteil ist, dass diese Backlighttechnik die momentan teuerste Technik ist. Und der zweite Nachteil ist, dass die Bereiche, also die Segmente, die abgedunkelt werden können, natürlich eine gewisse Ausdehnung haben. Meist gibt es nur ca. 100 Segmente aufs ganze Bild verteilt, entsprechend groß sind diese Bereiche. Oft ist aber nicht das gesamte Bild in diesem Segment dunkel. Es reicht ja, wenn ein paar wenige helle Pixel in diesem Bereich sind, dann muss das Backlight hell bleiben, damit die hellen Pixel auch leuchten können. Man denke nur an einen Nachthimmel, wo einzelne helle Sterne leuchten. Nebendran ist aber vielleicht ein wirklich dunkles Segment, wo das Backlight gedimmt werden kann. Der Effekt ist, dass man einen leichten Unterschied zwischen den Schwarztönungen dieser beiden Segmente sehen kann. Dass also sozusagen die paar hellen Pixel ihr gesamtes Umfeld mit erhellen, weil eben das gesamte Segment durch die aktivierte LED etwas heller erscheint. Diese etwas helleren Flächen um Umfeld von hellen Pixeln werden "Halos" genannt. Logischerweise sind diese Halos desto kleiner, je kleiner die Segmente sind, also je mehr dimmbare Segmente das Full-LED-Backlight hat. Und es hängt auch davon ab, ob der Hersteller vielleicht durch Software etwas trickst und z.B. die Segmente um ein solches im Prinzip dunkles Segment mit ein paar wenigen hellen Pixeln eben auch nicht ganz auf Null fährt, um die Helligkeitsunterschiede nicht zu krass werden zu lassen. Letztendlich ist es also eine Frage des Aufwandes und damit des Preises.

All diese negativen LED-Effekte, die sicherlich Jammern auf hohem Niveau sind, führen dazu, dass manche Leute tatsächlich sagen, dass die CCFL-Backlights im Endeffekt gar nicht so schlecht sind, da sie im Großen und Ganzen doch eine sehr gleichmäßige Ausleuchtung des Bilder erreichen. Zwar nicht so hohe Kontrastwerte wie bei Local Dimming, auch nicht so dünne Geräte wie bei Edge-LED, aber eben dafür eine doch sehr gleichmäßige Ausleuchtung des Bildes.

Das ist der Grund, warum die LEDs manchmal eben auch nicht als der Weisheit letzter Schluss dargestellt werden. Letztendlich denke ich aber doch, dass ein Full-LED mit Local Dimming die momentan beste Backlight-Technik ist. Die aber dann auch ihren Preis hat. Inwieweit die gleichmäßige Ausleuchtung bei Edge-LED klappt, hängt vom Hersteller, ja möglicherweise vom einzelnen Gerät ab. Dazu muss man sich eben individuell die Tests der einzelnen Geräte anschauen. Wenn man hier ein gutes Gerät erwischt, dann hat man sicher einen tollen, flachen und letztendlich deutlich preiswerteren Fernseher als bei Full-LED. Und wem der absolute Kontrast nicht so wichtig ist und wer der Bewegungsunschärfe eher mit Zwischenbildberechnung als mit Blinking Backlight Herr werden will, der ist mit einem CCFL-Backlight nach wie vor gut bedient und kommt sogar nochmal preiswerter weg. Zumal heutige LCD-Panels schon von sich aus ein ganz gutes Schwarz hinkriegen.

Tschau,

Hagge


[Beitrag von hagge am 24. Aug 2010, 10:16 bearbeitet]
Yoren
Ist häufiger hier
#8 erstellt: 24. Aug 2010, 11:01
Wow Hagge, dass ist mal ein schöner und vorallem informativer Beitrag. Danke dafür!
Bin derzeit selber bei der TV-Suche und habe bisher schon viele negative LED-Berichte in Foren gelesen. Von daher ist dein fachlicher Input hier sehr hilfreich und erklärt mir einige Sachen.

Viele Grüße


[Beitrag von Yoren am 24. Aug 2010, 11:27 bearbeitet]
Muffin72
Schaut ab und zu mal vorbei
#9 erstellt: 24. Aug 2010, 16:04
Heissen Dank für die Antworten, besonders an Hagge. Das Licht am Ende meines LCD/LED Tunnels wurde um ein etliches heller
Chrissli
Neuling
#10 erstellt: 24. Aug 2010, 18:49
Ebenfalls WOW an hagge!

Nachdem ich gestern beschlossen habe auch einen neuen Fernseher zu kaufen bin ich im Moment noch ziemlich am Anfang der Info-Sammlerei. Der Beitrag von hagge hat auch auch bei mir ein paar Unklarheiten beseitigt!

Ich möchte mir gerne einen 117 oder 127 cm LCD holen und habe mir ein Bugdet von bis zu 1500 Euronen vorgestellt. Leider sind aktuelle Test-Berichte in dieser Größe anscheinend Mangelware.

Kann mir jemand dazu einen Tipp geben oder ein bestimmtes Modell empfehlen?

Vielen Dank für Eure Antworten bereits im voraus!
Yoren
Ist häufiger hier
#11 erstellt: 25. Aug 2010, 08:08
Morgen Chrissli,

würde dir empfehlen im Bereich Kaufberatung ( http://www.hifi-forum.de/index.php?action=browse&forum_id=116 ) einen eigenen Beitrag zu erstellen. Vorher am besten dort http://www.hifi-forum.de/index.php?action=browse&forum_id=116 reinschauen und den Fragebogen unten für deinen eigenen Beitrag kopieren.

Im Regelfall bekommst du so schneller und vorallem auch qualifizierter eine Antwort

Viel Erfolg bei der TV-Suche.


[Beitrag von Yoren am 25. Aug 2010, 08:08 bearbeitet]
hagge
Inventar
#12 erstellt: 25. Aug 2010, 09:42
Es freut mich, dass euch mein Beitrag gefallen hat.

Vielleicht noch einen Tipp: man liest ja bei LCDs auch oft von 100Hz und 200Hz-Geräten, neuerdings in Einzelfällen sogar von 400Hz-Geräten. Dabei geht es ebenfalls um die Bekämpfung der LCD-Bewegungsunschärfe (also meinem obigen Punkt 2). Hier werden aber Zwischenbilder berechnet, um mehr Bewegungspositionen zu erreichen so dass jedes Bild nur für kürzer angezeigt werden muss. Auch das reduziert die Zeit, in der das Bild in einem bewegten Auge "verschmieren" kann. Meist wird diese Technik bei LED-Backlights sogar mit dem Blinking Backlight kombiniert.

Auch hierzu habe ich einen eigenen Thread 100Hz, 200Hz, 400Hz -- LCDs und ihre Bewegungsunschärfe geschrieben, der das alles möglichst einfach erklären soll. Vielleicht hilft dieser Background dann nochmal etwas weiter, worauf man bei der Suche nach dem geeigneten LCD-Fernseher achten sollte.

Gruß,

Hagge
Miss_Sophie
Stammgast
#13 erstellt: 25. Aug 2010, 12:56
@hagge: Du sprichst damit das "Motion Blur" (die Bewegungsunschärfe bei rasanten Kameraschwenks) an oder das "Smearing" (das verschmieren bspw. eines Balles im Flug, der auf seiner Flugbahn Streifen hinter sich herzieht)? Letztendlich ist das "Blinking Backlight" für beides gut.

Zumindest sind Deine Beiträge informativ, aufklärend und auf den Punkt gebracht! Ich bin Dir auch sehr dankbar, dass Du in Deinen Beiträgen nicht dem dieser Zeit zugehörigen Abkürzungswahn verfallen bist. Ich habe im Laufe des intensiven Lesens einige Abkürzungen erfahren, aber so manchmal muss ich mich doch einer Buchstabenkombination geschlagen geben. Auch hab ich die Suche bemüht, aber ein Abkürzungs-Erklärungsfred im LCD-/LED-Bereich gibts nicht.


[Beitrag von Miss_Sophie am 25. Aug 2010, 12:59 bearbeitet]
Muffin72
Schaut ab und zu mal vorbei
#14 erstellt: 25. Aug 2010, 18:30

hagge schrieb:
...
Vielleicht noch einen Tipp: man liest ja bei LCDs auch oft von 100Hz und 200Hz-Geräten, neuerdings in Einzelfällen sogar von 400Hz-Geräten....


Mmmh, da würde ich mir schon was mit 100 Hz holen, ich weiss ja nicht was Konsolentechnisch noch rankommt. Allerdings hab ich bei Freunden schon üble Bekanntschaft mit dem Soapeffekt gemacht... Matrix mit Soapeffekt, das ist wie ein guter 12 Jahre alter Scotch, der minzgrün eingefärbt wird
Zum Glück kann man es ausschalten
Hier gabs ja mal ne grosse Diskussion, ich glaub da hast Du auch ordentlich mitgepostet. Als Ergebnis hab ich noch in Erinnerung, dass der Unterschied von 50 zu 100 Hz doch was ausmacht, von 100 zu 200 jedoch nicht so dramatisch sein soll.
Chrissli
Neuling
#15 erstellt: 25. Aug 2010, 20:41
Danke Yoren, werde ich tun! Merci für den Tipp!

Danke auch an Hagge für den zweiten Thread, hat auch sehr weitergeholfen!

Trotzdem schwirren noch 1000 Fragezeichen in meinem Kopf, hätte nicht gedacht dass es so schwierig sein kann einen guten Fernseher zu finden.

Schade dass neutrale Test´s in dieser Größenordnung anscheinend kaum vorhanden sind. Das bewegt sich meist alles im Bereich 32 bis 40" .

Aber gut, wird schon werden...

Viele Grüße!
Sporty2
Stammgast
#16 erstellt: 28. Aug 2010, 19:05
Hi.
Welche Hersteller bieten denn überhaupt noch LED Backlight an? Normal oder RGB. Wenn dann benötige ich so um die 60 Zoll.
Gruß Uli
Master468
Inventar
#17 erstellt: 29. Aug 2010, 00:36

Zuerst mal grundsätzlich der Vorteil von LEDs: das Farbspektrum ist i.a. größer als das von Leuchtstoffröhren (CCFLs), die in der herkömmlichen LCD-Technik verwendet wurden. Wobei es hier ein bisschen auf die Technik der LEDs ankommt. Das beste Spektrum hat man im Prinzip, wenn man RGB-LEDs benutzt. Die sind aber sehr teuer, darum werden heute weiße LEDs verwendet, und auch da gibt es verschiedene Fertigungstechniken, die mehr oder weniger positiv zum Farbspektrum beitragen. Im allgemeinen ist was das Farbspektrum angeht das LED-Backlight aber dennoch meist dem CCFL-Backlight überlegen. Das heißt Punkt 3 spricht für LED.

Gerade für den TV-Bereich ist das Spektrum erstmal egal. Wir müssen uns vor Augen halten, dass HDTV gerade einmal zu sRGB identische Primärvalenzen definiert. Hier muß intern also bereits bei einer WCG-CCFL Hintergrundbeleuchtung (üblicherweise 92-102% NTSC) intern transformiert werden, um eine korrekte Darstellung zu ermöglichen. Ein RGB-LED Backlight (108% NTSC) bringt hier keinen zusätzlichen Gewinn. Der weiter vergrößerte Farbraum (durch das schmalere Spektrum) kann in der EBV sinnvoll sein. Für das menschliche Auge gibt es in der Beziehung auch keine Güte des Spektrums. Hier zählt, genau wie in der Farbmetrik, nur die Farbvalenz, also die Bewertung des eintreffenden Farbreizes in Summe. Alle spektralen Informationen sind verlorengangen (damit auch in den Farbmaßzahlen).

Einen handfesten Vorteil bietet eine RGB-LED Hintergrundbeleuchtung in Bezug auf die Veränderung des Weißpunktes. Der kann hier direkt über das Backlight selbst angepasst werden, was dementsprechend verlustfrei im Hinblick auf Kontrast und Tonwertumfang ist. Bei einer vernünftigen Elektronik ist der letzte Punkt allerdings auch mit White-LED oder (WCG-)CCFL Backlight kein Problem.

Wo wir aber schon einmal bei der spektralen Komponente sind: Der ambitionierte Nutzer, der seinen Bildschirm mit Meßsonde kalibrieren will, muss, abseits einer CCFL Hintergrundbeleuchtung ohne erweiterten Farbraum (72% NTSC, ausreichend für sRGB; inzwischen kaum noch auf dem Markt) in jedem Fall höllisch aufpassen. Das gilt auch für den Einsatz von Plasma-TV oder Beamer. Alle Consumer-Colorimeter (außer ganz wenigen Geräten im absoluten Profi-Segment - und selbst da gibt es Einschränkungen), sind aufgrund von Abweichungen in Bezug auf die ideale Filtercharakeristik (CIE-Normbetrachter), auf ein Spektrum "trainiert" (i.d.R. ein Display mit CCFL Backlight ohne erweiterten Farbraum, das als Korrekturgrundlage dient). Unabhängig davon, was der Hersteller da auch versprechen mag. Spektrale Abweichungen führen damit zwangsläufig zu steigenden Abweichungen, siehe auch hier. Für den TV-Bereich bedeutet dies, dass man entweder ein Spektralfotometer einsetzen (wobei das Abtastintervall der Consumer-Geräte ein gutes Stück über der fogra Empfehlung liegt; wir haben hier aber durchaus konsistente Ergebnisse mit dem EOP auch bei einem RGB-LED Backlight erreicht), oder für eine entsprechende Korrektur sorgen muss (siehe Link).


Aus diesen Gründen wird eigentlich ein Full-LED mit Local Dimming als die momentan beste Backlighttechnik angesehen. Doch auch hier sollen zwei Nachteile nicht verschwiegen werden:

Es gibt hier noch einen weiteren Nachteil, der aus meiner Sicht viel gravierender ist und auch mit noch so feiner Matrix nicht wird behoben werden können. Die Gradation verhält sich bei solchen Lösungen dynamisch. Für die EBV damit völlig unbrauchbar, aber selbst im eigentlich angedachten Bereich, also den TVs (um die es hier ja geht), schwankt damit der Bildeindruck szenenabhängig. Spezielle Pattern während der Kalibrierung sind dabei leider keine zufriedenstellende Lösung. Das mag nicht für jeden störend sein. Aber in Zeiten, in denen der Schwarzwert aktueller Geräte mit statischem Backlight sehr brauchbar geworden ist, gewinnt dieser Negativeffekt mehr und mehr an Bedeutung.

Gruß

Denis


[Beitrag von Master468 am 29. Aug 2010, 00:50 bearbeitet]
hagge
Inventar
#18 erstellt: 01. Sep 2010, 11:30

Master468 schrieb:
Gerade für den TV-Bereich ist das Spektrum erstmal egal. Wir müssen uns vor Augen halten, dass HDTV gerade einmal zu sRGB identische Primärvalenzen definiert. Hier muß intern also bereits bei einer WCG-CCFL Hintergrundbeleuchtung (üblicherweise 92-102% NTSC) intern transformiert werden, um eine korrekte Darstellung zu ermöglichen.

Eine Anpassung der Farben ist heutzutage bei *jedem* LCD notwendig, da die Farben höchstens per Zufall den zugeordneten Helligkeitswerten der Daten in den Videoformaten entsprechen. Zudem greift man ja mit den Farb- und Helligkeitsreglern in die Abbildung Quelle->Panel ein, so dass sich nie eine 1:1-Abbildung ergibt. Gerade darum ist es ja nach wie vor sinnvoll, auch bei den bisherigen Eigangsdaten (8-bit per Farbkomponente) ein höher auflösendes Farbpanel (z.B. 10 bit/Komponente) zu haben, um auch nach der Regelung noch das volle 8-Bit-Spektrum zur Verfügung zu haben, das sich dann natürlich nur auf einen Teilbereich des 10-bit-Spektrums erstreckt. Beispiel: Eine Quelle nutzt das volle Helligkeitsspektrum bis 255 aus. Der TV ist etwas dunkler gestellt, so dass er nur bis dreiviertel der Helligkeit ausgibt. Bei einem 8-Bit-Panel müssten so die beiden Quellwerte 241 und 240 beide auf den Wert 180 abgebildet werden, ließen sich auf einem 8-bit-Panel somit nicht mehr unterscheiden. Wird aber auf 10 bit erweitert, stehen also virtuell die Werte 0 bis 1023 zur Verfügung, dann entsprechen die Werte 240 und 241 den Werten 960 und 964. Rechnet man diese auf 3/4 herunter, ergeben sich 720 und 723, also durchaus noch unterscheidbare Werte auf einem 10-bit-Panel.

Insofern spricht aus meiner Sicht auch nichts dagegen, dass der Hersteller die Farben bei einem LED-Backlight etwas "aufpeppt" und damit aus dem normalen sRGB-Bereich hinauskommt und erweiterte Farben nutzt. Auch wenn diese Farben so nicht direkt von der Quelle vorgegeben werden. Es kann ja dem Nutzer überlassen bleiben, ob er solche "aufgehübschten" Farben nutzt oder nicht. Es gibt auch jetzt schon jede Menge Farbeinstellungen (z.B. Warm 1, Warm 2 bei Sony, entsprechend auch bei anderen Herstellern), die kräftig am Farbraum drehen, um verschiedene Geschmäcker zufrieden zu stellen.

Daneben gibt es durchaus auch neben TV noch andere Einsatzzwecke eines solchen TV-Gerätes: als Computermonitor und als Fotobetrachter. Gerade bei den Fotos gibt es schon jetzt spezielle Farbmodi (z.B. bei Sony), die durchaus den erweiterten Farbraum nutzen. Insofern ist der erweiterte Farbraum bei den TVs also nicht grundsätzlich unnötig.

Dazu habe ich immer nur den Vergleich zum normalen CCFL gemacht. Und das normale CCFL ist den LEDs schon deutlich unterlegen und wird meines Wissens nach wie vor in nahezu allen preiswerten Geräten eingesetzt. Dass es auch bei der CCFL-Technik Schritte zur Verbesserung der Farbspektrums gibt (WCG-CCFL), habe ich aus didaktischen Gründen weggelassen, da es hier im Thread, in dem es in erster Linie um LED-Backlights ging, eher verwirrt hätte. Dieses WCG-CCFL kommt aber nur in hochpreisigen Geräten zum Einsatz und da es meines Wissens auch ein Verfahren ist, bei dem durch zeitliche unterschiedliche Ansteuerung der Röhre das Farbspektrum erweitert wird, ist ein Fernseher mit WCG-CCFL auch anfällig für den sogenannten Regenbogeneffekt, also Farbsäume bei raschen Kopfbewegungen. Insofern ist die WCG-CCFL-Technik auch nicht nur positiv zu sehen und hat durchaus ihre Nachteile.


Es gibt hier noch einen weiteren Nachteil, der aus meiner Sicht viel gravierender ist und auch mit noch so feiner Matrix nicht wird behoben werden können. Die Gradation verhält sich bei solchen Lösungen dynamisch. Für die EBV damit völlig unbrauchbar, aber selbst im eigentlich angedachten Bereich, also den TVs (um die es hier ja geht), schwankt damit der Bildeindruck szenenabhängig.

Das muss aber ja nicht so sein. Das ist ja nur eine Frage der Software. Hier muss ja eigentlich die Software den Kontrast der einzelnen Farben entsprechend spreizen, wenn das Backlight abgedunkelt wird. Angenommen, man hat eine schwarze Fläche mit ein paar helleren Pixeln. Wenn diese Pixel nun nicht gerade völlig weiß sind, dann könnte der TV das Backlight ja trotzdem abdunkeln, dabei aber gleichzeitig und in gleichem Maße die Farben der Pixel so weit aufdrehen, dass diese volle Helligkeit zeigen. Durch das abgedunkelte Backlight wäre das Ergebnis dennoch ein nur mit der originalen Helligkeit leuchtende Pixel, obwohl das LCD das Pixel voll ansteuert.

Ich weiß nun nicht, ob das bei bisherigen LD-Lösungen schon so gemacht wird. Mir kam es bisher immer so vor, als ob nur einfach das Backlight abgedunkelt wird und damit die helleren Pixel auch im gleichen Maße dunkler werden, was dann häufig im Black-Crush endet, weil alles was vorher zwar dunkel, aber noch von Schwarz zu unterscheiden war, nun auf einmal komplett ins Schwarze absäuft.

Letztendlich denke ich auch nicht, dass so ein Fernseher mit LED-Backlight allzu häufig für professionelle Bildverarbeitung genutzt wird. Insofern sind für die meisten Leute die Probleme mit dem szenenabhängigen Bildeindruck nicht so entscheidend. Auch werden nur die wenigsten Leute ihr Gerät kalibrieren (lassen). Darum sehe ich dieses Problem als nicht so gravierend an. Bei einem stehenden Bild (Foto) bleibt die Ansteuerung solange auch konstant, und in einem sich bewegenden Bild, in dem sowieso sehr viele Änderungen sind, ist die durch das Backlight verursachte zusätzliche Dynamik dann auch nicht mehr so relevant weil nicht wirklich wahrnehmbar. Und wie gesagt ist der Rest nur eine Frage der Software.

Gruß,

Hagge


[Beitrag von hagge am 01. Sep 2010, 11:32 bearbeitet]
Master468
Inventar
#19 erstellt: 02. Sep 2010, 00:58


Eine Anpassung der Farben ist heutzutage bei *jedem* LCD notwendig, da die Farben höchstens per Zufall den zugeordneten Helligkeitswerten der Daten in den Videoformaten entsprechen

Eine Linearisierung ab Werk ist ohnehin notwendig, aber ein Gerät mit CCFL Hintergrundbeleuchtung (72% NTSC) hat eine relativ gute Paßgenaugigkeit, auch wenn es Unterabdeckungen gibt. Ein Display verhält sich, nachdem es das Werk verläßt dann i.d.R. sehr linear. Deswegen können wir im ICC-Workflow hier auch überhaupt mit Matrix-Profilen arbeiten und müssen nicht zwangsweise LUT-Profile verwenden.

Um vielleicht noch etwas abzuschweifen, aber bei der Helligkeitskomponente zu bleiben: Aufpassen muss man, wenn das CMS des TVs auch die Veränderung der Helligkeitskomponente der Primärfarben erlaubt. Die ergibt sich implizit aus Weißpunkt und Position der Primärfarben (üblicherweise auf der CIE-Normfarbtafel), weil wir eben ein lineares System haben und auch die Standardfarbräume entsprechend definiert sind. Hier kann man bei falschen Einstellungen sehr unschöne Nichtlinearitäten provozieren. Obacht ist auch in Bezug auf den Weißpunkt geboten. Die normativen Dokumente definieren sRGB (und auch Rec.709) relativ zu D65. Abweichungen führen (im Gegensatz zum weit verbreiteten "D65 Mantra") nicht zu einer falschen Darstellung, aber man muß, sofern das CMS des TVs die Anpassung von Primär- und Sekundärfarben erlaubt, chromatisch adaptieren. Hier scheitert es dann userseitig meist an der Verwendung von HCFR (problematisch aus vielen Gründen), und daran, dass es keine flexiblen Rechner dafür gibt (evtl. aus Babelcolor heraus; für unsere Lösung mußten wir in jedem Fall selbst tätig werden).


Gerade darum ist es ja nach wie vor sinnvoll, auch bei den bisherigen Eigangsdaten (8-bit per Farbkomponente) ein höher auflösendes Farbpanel (z.B. 10 bit/Komponente) zu haben,

Panels sind i.d.R. weiter 8bit. Eine hochbittige Verarbeitung vor dem Panel ist zur Vermeidung von Tonwertverlusten natürlich sinnvoll und wird, auch im PC-Bereich bei besseren Geräten für die EBV, durchgeführt (LUT bis 14bit, Rechengenauigkeit 16bit). Am Ende setzt dann eine FRC-Stufe auf. Echte 10bit Panels sind selten (im PC-Bereich sind mir derzeit zwei 24 Zöller bekannt). Die Hersteller sprechen hier aus marketingtechnischen Gründen immer gerne sehr schnell von einem 10bit Panel, wenn eingangsseitig >8bit pro Kanal verarbeitet werden können (DisplayPort/ HDMI) und insbesondere die FRC-Stufe vom Scaler in das Panel gewandert ist. In einem 8bit Workflow macht das ohnehin keinen Unterschied. Das 10bit/8bit FRC kann nur mit einem 10bit Signal und 10bit Panel umgangen werden. Daran wären sie dann auch zu identifizieren. Mit DeepColor per HDMI habe ich wenig Erfahrung im praktischen Einsatz.


Daneben gibt es durchaus auch neben TV noch andere Einsatzzwecke eines solchen TV-Gerätes: als Computermonitor und als Fotobetrachter

Natürlich völlig richtig. Für ernsthafte Einsätze "verbietet" sich ein TV hier aber aus vielerlei Gründen. Da gibt es Spezialisten im gehobenen Computer-Display Segment, die inzwischen übrigens auch eine flexible Farbraumemulation für ungemanagte Applikatonen mitbringen (u.a. NEC PA, Eizo CG). Die sind dann fraglos wieder kein TV-Ersatz. Für die Dia-Show am Rechner oder Konsolenspiele ist ein TV natürlich voll OK.


Dieses WCG-CCFL kommt aber nur in hochpreisigen Geräten zum Einsatz und da es meines Wissens auch ein Verfahren ist, bei dem durch zeitliche unterschiedliche Ansteuerung der Röhre das Farbspektrum erweitert wird, ist ein Fernseher mit WCG-CCFL auch anfällig für den sogenannten Regenbogeneffekt, also Farbsäume bei raschen Kopfbewegungen. Insofern ist die WCG-CCFL-Technik auch nicht nur positiv zu sehen und hat durchaus ihre Nachteile.

Das Spektrum wird hier ohne "Tricks" verändert (anbei auch mal ein paar vermessene Beispielspektren aus dem PC-Displaybereich). Ich kenne kaum einen größeren LCD-TV (wobei ich hier auch nicht so tief in die aktuelle Entwicklung involviert bin), der, wenn CCFL beleuchtet, kein WCG-CCFL Backlight verbaut hätte. Für den normalen Einsatz (SD- und HD-TV) ist es ja dann auch egal. Für das Auge und die Messtechnik zählt nur die Farbvalenz - und nicht wie der Farbreiz zusammengesetzt war. Wichtig wäre es natürlich in der Abmusterung von Farbproben, weswegen in der Beleuchtung entsprechendes Normlicht nicht nur farbmetrisch, sondern auch mit seinem Idealspektrum definiert ist.


Das muss aber ja nicht so sein. Das ist ja nur eine Frage der Software.

Ich sehe da keine direkte Behebbarkeit insbesondere auch für die streulichttechnischen Probleme. Eine "glaubwürdige" Verrechnung ist faktisch nicht möglich. Kein TV mit local dimming erreicht hier ein annähernd stabiles Verhalten in Bezug auf die Gradation. Ähnlich kritisch (aus anderem Grund) sehe ich nur noch die neuen Sharp mit QuadPixel. Linearitätsprobleme sind vorprogrammiert, ohne dass er für SD- und HD-TV einen Vorteil brächte.

Vielleicht bin ich da auch zu genau, aber das bringt meine Tätigkeit im farbmetrischen Bereich dann einfach mit sich. Der fluktuierende Bildeindruck einer ld Lösung fällt aber eigentlich den meisten Menschen auf, wenn man sie mal darauf hinweist (ob das wiederum sinnvoll ist, steht auf einem anderen Blatt ;-) ). Ich habe hier selbst einen älteren F96 von Samsung. Dessen Schwarzwert ist einfach zu schlecht, um das ld zu deaktivieren, aber er ist aus kalibrationstechnischer Sicht ein absoluter Albtraum. Die Abstimmung an sich ist Samsung bei ihrem "Frühwerk" ganz gut gelungen, da das local dimming nicht zu "aggressiv" agiert und den Bildschirm auch nie komplett herunterdimmt (außer man "tweakt" es manuell, was dann zu enormen Schwellenwertproblemen und dem von dir angesprochenen Blackcrush führt).

Aber ich will hier gar keinen Feldzug gegen local dimming führen und löse mich mal von meiner farbkritischen Sicht. Das TV Bild soll ruhig Geschmackssache bleiben. Meine Kritik setzte auch eher an dem Punkt an, dass sich der Schwarzwert bei Geräten mit statischem Backlight in den letzten Jahren schon enorm verbessert hat und ich da keine unbedingte Notwendigkeit für solche Regelungen mehr sehe (im Gegensatz zu meinem F96).

CCFL (72% NTSC):


WCG-CCFL (hier: 92% NTSC):


White-LED (hier: 72% NTSC):


Gruß

Denis


[Beitrag von Master468 am 02. Sep 2010, 02:04 bearbeitet]
hagge
Inventar
#20 erstellt: 02. Sep 2010, 02:03

Master468 schrieb:
Eine Linearisierung ab Werk ist ohnehin notwendig, aber ein Gerät mit CCFL Hintergrundbeleuchtung (72% NTSC) hat eine relativ gute Paßgenaugigkeit, auch wenn es Unterabdeckungen gibt. Ein Display verhält sich, nachdem es das Werk verläßt dann i.d.R. sehr linear.

Dennoch bieten viele Displays im industriellen Bereich heute sehr viele Einstellmöglichkeiten, wie man die Gamma-Kurve an mehreren Punkten anpassen kann. Das sagt mir, dass es nicht immer so linear zugehen kann, sonst würde ja ein einziger Gamma-Wert ausreichen.


Panels sind i.d.R. weiter 8bit.

Nicht unbedingt. Der Z4500 von Sony hatte z.B. ein 10-bit-Panel. Aber zugegeben, mit den neueren Bildengines wird mehr auf FRC gesetzt und man kommt darum mit 8-Bit-Panels aus, die natürlich billiger sind. Allerdings haben die FRC-Techniken das Problem, dass sie ein deutlich höheres Input-Lag erzeugen. Insofern wäre mir eigentlich ein 10-bit-Panel bei geringem Input-Lag lieber als eine FRC-Lösung.


Hatte ich ja angesprochen. Für ernsthafte Einsätze "verbietet" sich ein TV hier aber aus vielerlei Gründen.

Richtig. Aber Du siehst alles immer nur aus Sicht des Profis, der eingemessene Farben will. Für den reinen Laien und TV-Zuschauer mag es aber komplett irrelevant sein, ob die Farben absolut stimmen, aber sie mögen vielleicht dennoch vom großen Farbraum profitieren. Zum Beispiel gerade durch gewisse Presets, die der Hersteller vorgibt.


Das Spektrum wird hier ohne "Tricks" verändert (anbei auch mal ein paar vermessene Beispielspektren aus dem PC-Displaybereich).

Wir hatten hier mal einen Thread mit heißen Diskussionen, wo es um den Regenbogeneffekt bei LCD-Fernsehern ging. Die Quintessenz war dann, dass das Backlight tatsächlich gepulst war und dadurch tatsächlich ein RBE entstehen kann. Das hatte damals sogar Sony bestätigt und ich war bisher immer der Meinung, dass die Ursache für das Pulsen das WCG-CCFL war. Dass also nur durch das Pulsen und die dabei entstehenden Farben der Leuchtstoffe das Farbspektrum erhöht wurde. Allerdings muss ich zugeben, dass ich das vielleicht nur so in die Aussage von Sony reininterpretiert habe. Sooo tief stecke ich ehrlich gesagt nicht in der Farbgenerierung und der ganzen Welt der Farbspektren drin, als dass ich da noch allzu viel mehr sagen könnte. Da bist Du sicher der wesentlich Kompetentere von uns beiden und kennst Dich mit den Techniken der Backlighterzeugung besser aus.


Aber ich will hier gar keinen Feldzug gegen local dimming führen und löse mich mal von meiner farbkritischen Sicht. Das TV Bild soll ruhig Geschmackssache bleiben. Meine Kritik setzte auch eher an dem Punkt an, dass sich der Schwarzwert bei Geräten mit statischem Backlight in den letzten Jahren schon enorm verbessert hat und ich da keine unbedingte Notwendigkeit für solche Regelungen mehr sehe (im Gegensatz zu meinem F96).

Sage ich auch gerne. Alle aktuellen Fernseher haben einen besseren Schwarzwert als es jede handelsübliche Röhre je hatte. Aber es gibt Leute, vor allem welche die aus dem Plasma-Bereich kommen, für die ist ein guter Schwarzwert alles. Ich kann da oft auch nur drüber lächeln.

Andererseits suche ich nun auch schon relativ lange einen TV und der sollte dann schon recht gut sein. So habe ich gerade den Sony HX905 ins Auge gefasst und der hat auch Local Dimming. Mal noch sehen, was die IFA bringt und dann werde ich mich mal auf die Suche nach einem guten Händler machen. Insofern bin ich nun doch auch bei LD gelandet, auch wenn ich es nicht unbedingt als Bedingung gemacht hatte. Aber wie gesagt, ich denke so ein Fernseher mit LD ist dann doch noch ne kleine Ecke besser als einer ohne LD.

Gruß,

Hagge

(PS: Bin jetzt dann 10 Tage in Urlaub. Falls die Diskussion also noch weitergeht, nicht wundern, wenn ich nicht gleich antworte.)
Master468
Inventar
#21 erstellt: 02. Sep 2010, 02:37

Das sagt mir, dass es nicht immer so linear zugehen kann, sonst würde ja ein einziger Gamma-Wert ausreichen.

Linear geht es nach der Linearisierung zu - sollte es ;-). Im TV-Bereich ist man da ohnehin laxer bzw. hat ganz andere Voraussetzungen. Im PC-Bereich neutralisiere ich meinen Bildschirm durch die Softwarekalibration oder lasse das im High-End Bereich gleich direkt über die Monitor-LUT in Hardware erledigen (und da wird natürlich auch an vielen Stütztstellen angesetzt). Beides steht mir ja bei einem LCD-TV gar nicht zur Verfügung. Hier bleibt mir nur das OSD als umfassende Lösung (gut, ich mache es über meinen Radiance, weil der F96 hier kein CMS bietet, aber das dürfte die Ausnahme sein)

Trotzdem hat ein Bildschirm sich ab Werk einfach neutral und linear zu verhalten. Wenn ich mir die letzten High-Ender ansehe (alles PC-Schirme), die ich hier auf dem Tisch hatte, stimmte das auch. Korrekturen über die Grafikkarten-LUT waren, unabhängig vom Kalibrationsziel, im Rahmen einer Softwarekalibration fast nie nötig, die Grauachse ab Werk immer ausgesprochen neutral. Im OSD kannst du bei diesen Geräten dann die gewünschte Gradation wählen, wobei teilweise nicht nur Gamma-Zahlwerte, sondern auch sRGB und L* möglich sind. Sie wird dann auch sehr exakt erreicht. Weitere Eingriffe sind, wie angedeutet, kaum nötig. Davon abgesehen, dass solche Schirme meist auch eine Hardwarekalibration erlauben.

Ich wünsche mir, dass man auch im TV-Bereich hier mal etwas exakter agiert. Das überhaupt umfangreichere CMS integriert werden, ist ja schonmal ein guter Schritt.


Nicht unbedingt. Der Z4500 von Sony hatte z.B. ein 10-bit-Panel.

Nicht, dass ich Sony da nicht glaube, aber ist das mal wirklich glaubwürdig überprüft worden? Alleine das ist ja alles andere als trivial. Im PC-Bereich geht das mit einer Zuspielung in 10bit per DisplayPort ganz gut (hier ist dann einfach kein "Grieseln" mehr in dunklen Tonwerten sichtbar), aber die ganze DeepColor Geschichte über HDMI birgt ja viele Fallstricke. Kann von meiner Warte aus nur sagen, dass im PC-Bereich sehr häufig mit einem 10bit Display geworden wird, sobal das FRC ins Panel gerutscht ist (vglw. junge Entwicklung).


Für den reinen Laien und TV-Zuschauer mag es aber komplett irrelevant sein, ob die Farben absolut stimmen, aber sie mögen vielleicht dennoch vom großen Farbraum profitieren. Zum Beispiel gerade durch gewisse Presets, die der Hersteller vorgibt.

Ich kann das ja auch verstehen. Kenne selbst genug Bekannte, die es einfach nur "bunt" haben wollen. Da wird der Farbraum dann eben auf "Wide" umgestellt und man kommt da auch nicht gegen an. Aber hier graust es mich viel weniger, als wenn ich sehe, wie oft WCG-CCFL oder LED-Geräte mit falschen Messequipment kalibriert werden (jemand, der eine Sonde verwendet, hat ja einen entsprechenden Anspruch). Das Problem ist absolut unterschätzt, gerade aus den USA kommt da von vorgeblich professionieller Seite fast nichts, was mich schon sehr ärgert. Ein einfaches CCFL Gerät wäre hier schon vorteilhaft.


Wir hatten hier mal einen Thread mit heißen Diskussionen, wo es um den Regenbogeneffekt bei LCD-Fernsehern ging. Die Quintessenz war dann, dass das Backlight tatsächlich gepulst war und dadurch tatsächlich ein RBE entstehen kann

Ist gut möglich, dass Sony da was an der Ansteuerung des Backlights macht, aber nicht aus Gründen der "WCG" Erzeugung. Da müßte man mal mit etwas mehr Zeit genauer nachforschen.


n. So habe ich gerade den Sony HX905 ins Auge gefasst und der hat auch Local Dimming. Mal noch sehen, was die IFA bringt und dann werde ich mich mal auf die Suche nach einem guten Händler machen. Insofern bin ich nun doch auch bei LD gelandet, auch wenn ich es nicht unbedingt als Bedingung gemacht hatte.

Gut, letztlich zählt im TV-Bereich der persönliche Eindruck. Und du wirst ja immer die Option haben, das ld auch abzuschalten, wenn es dann doch stören sollte. Ich wollte ld jetzt auch nicht als Ausschlußkriterium darstellen. Die Sony Geräte sollten in Bezug auf den Zustand ab Werk dem Neutralitäts/ Linearitätideal auf jeden Fall sehr nahe kommen :-).

Gruß

Denis


[Beitrag von Master468 am 02. Sep 2010, 02:42 bearbeitet]
Andregee
Inventar
#22 erstellt: 02. Sep 2010, 12:16
könnt ihr das nicht unter euch austauschen.
mir ist das zu langweilig zu lesen.
Muffin72
Schaut ab und zu mal vorbei
#23 erstellt: 04. Sep 2010, 11:06

Andregee schrieb:
könnt ihr das nicht unter euch austauschen.
mir ist das zu langweilig zu lesen.


Dann mach bitte Deinen eigenen Thread auf, mich interessiert das.

PS: danke an master und hagge, auch wenn ich nicht alles verstehe
Peter1
Stammgast
#24 erstellt: 04. Sep 2010, 12:09

Muffin72 schrieb:
PS: danke an master und hagge, auch wenn ich nicht alles verstehe ;)


Dem möcht' ich mich (in jeder Hinsicht) anschliessen!

Was ich für mich als technischer Laie aus diesem Gedankenaustausch unter Profis lerne:

Die ganze Materie ist höchst komplex, jedenfalls mehr als es die verführerischen Werbebotschaften vermuten lassen ...

Und: Offenbar können gewisse Vorteile nur durch gewisse Nachteile "erkauft" werden.

Vergällt also solchen Profis nicht die Lust am Gedankenaustauschen!

Gruss Peter
Elsensee
Stammgast
#25 erstellt: 10. Sep 2010, 15:03

könnt ihr das nicht unter euch austauschen.
mir ist das zu langweilig zu lesen.


welch Armutszeugnis, wann bekommt man selbst als Techniker mal solche Detaills zu lesen....
Dank an die beiden Diskutanten!
hagge
Inventar
#26 erstellt: 13. Sep 2010, 22:08
So, da bin ich wieder.


Master468 schrieb:
Linear geht es nach der Linearisierung zu - sollte es ;-).

Nun, klar. Genau darum gibt es ja solche Justierungsmöglichkeiten in den Displays selbst. Letztendlich ging es mir aber darum, dass auf der einen Seite irgendwelche Digitalwerte ankommen, z.B. von BluRay, und auf der anderen Seite irgendwelche Digitalwerte an die Zeilen- und Spaltentreiber des Panels geliefert werden müssen. Und hierbei muss eben eine Abbildung stattfinden, in die die gesamte Bildeinstellung des Zuschauers (Helligkeit, Kontrast, usw.) und eine Korrektur z.B. der Gammakurve einfließt, um die Ungleichmäßigkeit bei den Treibern auszugleichen. Letzteres passiert bei industriellen Panels (Embedded-Bereich) nun immer häufiger im Panel selbst, z.B. durch eine spezielle I2C oder SPI-Datenverbindung, über die die Gamma-Kurve angepasst werden kann. Dann kann man sozusagen die RGB-Werte des Eingangssignals 1:1 ans Display durchreichen und alles ist gut (also linear).

Bei TV-Panels und auch Monitoren aus dem Consumerbereich kenne ich mich nicht so im Detail aus, aber ich könnte mir vorstellen, da hier sowieso deutlich mehr gerechnet wird (Zwischenbildberechnung, FRC, usw.), dass es dann fast einfacher ist, diese Linear-Korrektur auch gleich mit in der Bildengine zu berechnen. Dann kann beim Berechnungsverfahren mit einem erweiterten Zahlenbereich gerechnet werden (z.B. 10, 12 oder gar 16 Bit) und erst ganz am Ende wieder auf 8-Bit reduziert werden. Das könnte insgesamt auch mit einem 8-Bit-Panel eine gute Qualität liefern, besser, als wenn die Bildeinstellung einmal in einem ersten Schritt in der Bildengine verrechnet und wieder auf 8-Bit reduziert wird, und dann die Linearisierung im Panel selbst als zweiter Schritt dann nochmal draufgerechnet wird und wieder auf 8-Bit reduziert wird. Rein numerisch wäre so eine getrennte Berechnung schlechter als die kombinierte.

Insofern vermute ich, dass die Linearisierung hier in der Bildengine des TVs und nicht mehr im Panel stattfindet. Aber wie gesagt, ist alles nur Vermutung. So tief stecke ich nicht bei den TV-Panels drin, ich komme mehr aus der industriellen Ecke.


Wenn ich mir die letzten High-Ender ansehe (alles PC-Schirme), die ich hier auf dem Tisch hatte, stimmte das auch. Korrekturen über die Grafikkarten-LUT waren, unabhängig vom Kalibrationsziel, im Rahmen einer Softwarekalibration fast nie nötig, die Grauachse ab Werk immer ausgesprochen neutral.

Also so krass, dass man an der Quelle (also z.B. der Grafikkarte oder dem BD-Player) an den Bildparametern drehen müsste, so schlimm sollte es tatsächlich nie sein. Soweit sollte dann der Monitor als Gesamtes schon linear arbeiten. Die Frage ist aber, ob diese Linearisierung im eigentlichen LCD-Panel stattfindet (wie eben z.B bei einige Casio-Panels im industriellen Bereich) oder ob es die "Software"-Seite des Gerätes macht, also die Bildengine.

Aus Sicht des Endusers ist es allerdings egal, wie das realisiert ist. Hauptsache es funktioniert. Die Linearität sollte sowieso ab Werk (über das Servicemenü) so eingestellt sein, dass man nicht mehr nachjustieren muss. Somit muss man sozusagen mit der Kalibrierung nur noch die Arbeitspunkte festlegen. Dann braucht man eigentlich auch kein allzu umfangreiches Farbmanagement mehr. Ob das in der Praxis allerdings immer so perfekt klappt, ist eine andere Frage.



Nicht unbedingt. Der Z4500 von Sony hatte z.B. ein 10-bit-Panel.

Nicht, dass ich Sony da nicht glaube, aber ist das mal wirklich glaubwürdig überprüft worden? Alleine das ist ja alles andere als trivial. Im PC-Bereich geht das mit einer Zuspielung in 10bit per DisplayPort ganz gut (hier ist dann einfach kein "Grieseln" mehr in dunklen Tonwerten sichtbar), aber die ganze DeepColor Geschichte über HDMI birgt ja viele Fallstricke.

Halt halt. Auch wenn es ein 10-bit-Panel ist, muss es nicht mit einer 10-bit-Zuspielung angesteuert werden, um den Vorteil zu haben. Gerade mein Beispiel mit den Quellwerten 240 und 241 sollte das ja aufzeigen, dass ein 10-Bit-Panel auch bei 8-Bit-Zuspielung noch zwei verschiedene Werte anzeigen kann und damit die Farben unterscheidbar darstellt, während ein 8-Bit-Panel eben beide Werte gleich darstellen würde und die Farben nicht mehr zu unterscheiden wären.

Gruß,

Hagge
Master468
Inventar
#27 erstellt: 13. Sep 2010, 23:20

Halt halt. Auch wenn es ein 10-bit-Panel ist, muss es nicht mit einer 10-bit-Zuspielung angesteuert werden, um den Vorteil zu haben. Gerade mein Beispiel mit den Quellwerten 240 und 241 sollte das ja aufzeigen, dass ein 10-Bit-Panel auch bei 8-Bit-Zuspielung noch zwei verschiedene Werte anzeigen kann und damit die Farben unterscheidbar darstellt, während ein 8-Bit-Panel eben beide Werte gleich darstellen würde und die Farben nicht mehr zu unterscheiden wären.

Jein. Die Grundidee ist dabei völlig richtig. Aber die Vorteile hast du in gleichem Umfang auch bei einem 8bit Panel (=> kein unschönes Banding bei umfangreichen Einstellungen mit Bordmitteln, d.h einer ordentlichen "Verbiegung" des Eingangssignals). Wichtig ist, wie "breit" die Elektronik vorher arbeitet. Bei einer Zuspielung in 8bit pro Kanal umgehst du auch bei einem 10bit Panel die FRC Stufe nicht. Damit siehst du bei dieser Zuspielung auch keinen Unterschied, egal ob da ein 8bit oder 10bit Panel werkelt.

Die Tonwertverluste durch Transformationen des Eingangssignals hat die breite Elektronik bereits vermieden. Zum Panel werden sie letztlich über das FRC "gerettet". Das FRC umgehst du ausschließlich in der Kombination 10bit Panel und 10bit Zuspielung. Das sieht man auch ganz wunderbar an den wenigen Bildschirmen mit 10bit Panel im PC-Bereich. LG W2420R und HP2480zx (daneben gibt es u.a. noch den Quato 240ex) zeigen bei einer Zuspielung in 8bit pro Kanal das FRC typische Grieseln in dunklen Tonwerten (beim HP sogar leichtes spatiales Dithering), das beim HP erst bei Anschluß über DisplayPort und Zuspielung in 10bit pro Kanal verschwindet. Und damit ist die Identifizierung des eingesetzten Panels auch so schwierig. Zumal es zumindest im PC-Bereich heute üblich ist, die 10bit werbewirksam zu vermarkten, sobald eine entsprechende Zuspielung möglich ist, und das FRC panelintern implementiert wurde (womit auch hier ein 10bit Scaler notwendig wird) - auch wenn das eigentliche Panel nur mit 8bit pro Kanal arbeitet.


Insofern vermute ich, dass die Linearisierung hier in der Bildengine des TVs und nicht mehr im Panel stattfindet. Aber wie gesagt, ist alles nur Vermutung. So tief stecke ich nicht bei den TV-Panels drin, ich komme mehr aus der industriellen Ecke.

Ist schon richtig. Eizo hatte bei den CGs z.B. auch mal eine zweite LUT verwendet.

Gruß

Denis


[Beitrag von Master468 am 14. Sep 2010, 01:20 bearbeitet]
Frankman_koeln
Inventar
#28 erstellt: 14. Sep 2010, 00:34
soviel wissen beeindruckt mich !

sehr interessant zu verfolgen, auch wenn ich nicht alles versteh weil mir das technische hintergrundwissen fehlt ....
hagge
Inventar
#29 erstellt: 14. Sep 2010, 09:39

Master468 schrieb:
Bei einer Zuspielung in 8bit pro Kanal umgehst du auch bei einem 10bit Panel die FRC Stufe nicht.

OK, wenn das FRC schon panelseitig implementiert ist, stimmt das wohl. Ich bin bisher immer davon ausgegangen, dass die 10-Bit-Panel eigentlich ohne FRC auskommen und FRC hauptsächlich nur implementiert wurde, um eine ähnlich feine Farbauflösung auch bei 8-Bit-Panels hinzubekommen, also letztendlich um ähnlich gute Qualität wie bei einem 10-Bit-Panel auf einem deutlich preiswerteren 8-Bit-Panel zu erhalten. Wenn allerdings auch die 10-Bit-Panel FRC machen, was vielleicht gar nicht so blöd ist um auch dort das Banding zu reduzieren, dann stimmen natürlich viele meiner Überlegungen nicht mehr.

Mit FRC ist eben der Trend, dass die "echte" Farbtiefe gar nicht mehr in Form von Bits vorhanden ist, sondern stattdessen in die Zeit ausgelagert wird, weil das menschliche Auge die Farbintensitäten/Helligkeiten über die Zeit mittelt. Das ergibt bei entsprechend hoher FRC-Frequenz natürlich schon ein besseres Bild, führt aber meines Erachtens zu höherem Input-Lag, was auch nicht immer so toll ist.

Darf ich fragen, was Du genau beruflich machst? Dass es in der professionellen Bildverarbeitungsbranche ist, ist schon durchgeklungen. Aber Du hast ja wirklich ein enormes Wissen und Erfahrung, was die Farbdarstellung angeht. Damit dürftest Du hier im Forum nahezu jeden in den Schatten stellen, mich inklusive.

Gruß,

Hagge


[Beitrag von hagge am 14. Sep 2010, 09:39 bearbeitet]
Miss_Sophie
Stammgast
#30 erstellt: 14. Sep 2010, 18:44
Der Beitrag ist ja schon sehr interessant!

Dass andere den langweilig finden, kann ich nicht mal ansatzweise verstehen. Danke Euch beiden.

Für die andren stillen Mitleser hab ich mal kurz gegoogelt: FRC steht für "Frame Rate Control", einer Technik die (wenn ich das richtig verstanden habe) die Farbe eines Pixels in 2 aufeinanderfolgenden Frames ändert um damit einen größeren Farbraum zu emulieren.
hagge
Inventar
#31 erstellt: 15. Sep 2010, 10:33

Miss_Sophie schrieb:
Für die andren stillen Mitleser hab ich mal kurz gegoogelt: FRC steht für "Frame Rate Control"

Genau. Der Trick ist, dass ein Pixel zwischen zwei Farben hin und her geschaltet wird, um im Auge den Eindruck einer Zwischenfarbe entstehen zu lassen, die normalerweise durch die sonst darstellbaren Farben nicht möglich wäre.

Beispiel: Wenn man ein reines Schwarzweiß-Display hat, also ein Display, das nur schwarze (eingeschaltete) oder weiße (ausgeschaltete) Pixel anzeigen kann, dann kann man z.B. abwechselnd das Pixel ein- und ausschalten und dann entsteht beim Betrachter der Eindruck eines grauen Pixels, obwohl das Display eigentlich gar keine grauen Pixel anzeigen kann. Das Auge kann aber den Wechsel nicht so schnell wahrnehmen und sieht darum die Mischfarbe. Ändert man das Zeitverhältnis noch etwas ab, macht also z.B. einen Frame lang ein weißes und zwei Frames lang ein schwarzes Pixel, kann man auch noch andere Graustufen erzeugen, in dem Fall wäre es ein etwas dunkleres Grau als das vorige.

Auf diese Weise kann man also mehrere Mischfarben erzeugen, die zwischen den beiden tatsächlich vorhanden Farben liegt. Man muss aber aufpassen. Denn wenn man zu lange Pausen macht, also eine der Farben zu lange anzeigt, um einen Farbton zu bekommen, der noch sehr nahe an einer der originalen Farben liegt, dann kann sich das in Flimmern äußern, weil irgendwann die Frequenz, mit der sich diese Pixel ändern, in den wahrnehmbaren Bereich gerät. Umgekehrt bedeutet das, dass solche FRC-Verfahren auch nur dann Sinn machen, wenn das Panel schon eine gewisse Grundfrequenz hat. Denn bei 50Hz würde das abwechselnde Blinken ja schon bei 25Hz landen, was man schon sehen kann. Andere Verhältnisse wie 1:2 (16.7Hz) oder 1:4 (10Hz) wären noch offensichtlicher. FRC kommt also sinnvollerweise nur bei 100- oder 200Hz-Geräten zum Einsatz, wo die Pixel auch entsprechend schnell wechseln können und auch die durch das FRC-Blinken entstehenden niedrigeren Frequenzen noch nicht allzu offensichtlich flackern.

Das heißt bei solchen FRC-Verfahren gibt es immer Farben, die sehr gut aussehen (z.B. die Farbe genau in der Mitte, wo man einmal das eine und einmal das andere Pixel anzeigt) und Farben die schlechter aussehen, weil sie flackern (weil z.B. 4x das eine Pixel und nur 1x das andere Pixel angezeigt wird).

Auch hier kann man es besser und schlechter machen. Nehmen wir mal diesen letzten Fall: 4x eine Farbe, 1x andere Farbe. Wenn nun alle Pixel, die diesen Mischton zeigen sollen, auf die gleiche Weise getaktet werden, dann flackert das Bild furchtbar (W=Weiß, S=Schwarz).


Pixel 1: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 2: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 3: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 4: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 5: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...


Denn nun zeigen alle diese Pixel zur gleichen Zeit das Schwarz an und das auf die gesamte Fläche betrachtet wirkt sich schon als dunkles Flackern aus.

Verschiebt man aber die Pixel in ihrer Anzeige zueinander, dann ist es lange nicht so störend:


Pixel 1: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 2: W, W, W, S, W, W, W, W, S, W, W, W, W, S, W, ...
Pixel 3: W, W, S, W, W, W, W, S, W, W, W, W, S, W, W, ...
Pixel 4: W, S, W, W, W, W, S, W, W, W, W, S, W, W, W, ...
Pixel 5: S, W, W, W, W, S, W, W, W, W, S, W, W, W, W, ...


Nun ist immer mal wieder ein anderes Pixel schwarz und das flackert nicht so, obwohl immer noch alle diese Pixel die gleiche Mischfarbe zeigen. Passt man aber nicht auf und zu viele Pixel über- oder nebeneinander zeigen nun doch wieder die gleiche Farbe, dann könnte sich das so auswirken, also ob ein dunkler Strich oder ein Muster übers Bild läuft. Man kann das im Beispiel an dem Muster erkennen, mit dem das S von links nach rechts läuft. Man muss also aufpassen, dass nicht nur die Pixel nebeneinander möglichst gegenphasig flackern, sondern auch die übereinander. Die FRC-Verfahren arbeiten darum immer zweidimensional. Am besten wäre eigentlich ein zufälliges Muster über den ganzen Bildschirm verteilt.


Pixel 1: W, W, W, W, S, W, W, W, W, S, W, W, W, W, S, ...
Pixel 2: W, W, S, W, W, W, W, S, W, W, W, W, S, W, W, ...
Pixel 3: S, W, W, W, W, S, W, W, W, W, S, W, W, W, W, ...
Pixel 4: W, W, W, S, W, W, W, W, S, W, W, W, W, S, W, ...
Pixel 5: W, S, W, W, W, W, S, W, W, W, W, S, W, W, W, ...
...


Man sieht, man kann in diese FRC-Verfahren schon eine ganze Menge Gehirnschmalz stecken, um es halbwegs gut hinzukriegen. Entsprechend wird da auch oft ein Geheimnis drum gemacht, wie die FRC-Algorithmen nun tatsächlich arbeiten. Und entsprechend klappt es beim einen Hersteller besser und beim anderen schlechter.

Um auf FRC bei den Fernsehern zurück zu kommen: hier wird eben nun nicht mit schwarzen und weißen Pixeln gearbeitet, sondern mit Pixeln, die sehr nahe beieinander liegende Farben haben. Schaltet man z.B. ein Pixel zwischen R=255, G=128, B=150 und R=255, G=129, B=151 hin und her, dann sieht man praktisch eine Zwischenfarbe R=255, G=128.5, B=150.5, die es auf einem 8-Bit-Panel eigentlich nicht gäbe, sondern nur auf einem Panel mit mehr Bittiefe. Darum kann man mit einer Bildengine wie der Bravia Engine 3 von Sony, die solche FRC-Verfahren nutzt, auch auf einem 8-bit-Panel eine ähnlich gute Farbwiedergabe erreichen, wie andere Fernseher, die ein 10-Bit-Panel aber ohne FRC benutzen.

Wie ich von Denis nun erfahren habe, ist es aber anscheinend sogar so, dass selbst bei den Profi-Monitoren mit 10-bit-Paneln nun schon FRC eingesetzt wird. Das heißt hier hat man dann sogar nochmals weitere Zwischenfarben, die dann vielleicht schon fast einem 12-bit-Panel entsprechen, wo also extrem feine Farbverläufe durch die sehr vielen möglichen Mischfarben möglich sind. Eigentlich ziemlich genial.

So, ich hoffe das klärt das Thema FRC etwas.

Gruß,

Hagge


[Beitrag von hagge am 15. Sep 2010, 10:41 bearbeitet]
Miss_Sophie
Stammgast
#32 erstellt: 15. Sep 2010, 12:19
Das ist ja schon sehr ausgeklüngelt! Interessant ist mit welchen Techniken heutzutage die menschlichen "Unzulänglichkeiten" ausgenutzt werden, da das Auge meines Wissens nach seine Bilder selbst mit 25 Hz macht und es auf der Netzhaut ebenfalls eine Art "Smearing" geben soll - womit ein mit 25 Hz und längerer Verschlusszeit aufgenommener Film, leicht verschmiert, eben für die Abbildung im menschlichen Auge am besten sein soll.

Ist damit die Zwischenbildberechnung so zu verstehen, dass das eigene menschliche Auge diesen "Verschmierungsprozess" nun wieder selbst darstellen kann, da es ja in der Realität immer "scharfe" Bilder gibt aber durch die ruckartige Drehung des Kopfes dieser Schmiereffekt entsteht? Wenn ja, dann kann das eigene Auge ein mit mehreren Zwischenbildern berechnetes Bild mit seinem persönlichen "Schmierfaktor" belegen und somit ein für sich bekanntes Abbild der Realität im Gehirn schaffen - und nicht die Kamera mit seinen Veschlusszeiten. Wenn man einer der von Euch gesponnenen Fäden aufgreift und weiterdenkt, dann ist das schon irre interessant was ihr beide da beschrieben habt!

Wie sieht es dann bei anderen Techniken aus, Stichwort "3D": Was macht eine FRC-Engine/Algorithmus wenn weniger Bilder erzeugt werden können. Soweit ich es bisher mitgekriegt habe, produziert Sony 3D in 48 Hz. Welche Spielereien eines HX905 mit seinen MF400Pro werden dann sinnvoll verwendet? Wenn ich diese ganzen Freds den LCD betreffend richtig verfolgt habe, dann sind das 100 Hz Bild mit Zwischenbild, 100 Hz ein durchlaufender Balken (ist das Motion Flow Control, MFC?) und 200 BFI (Black Frame Insertion, ganze schwarze Bilder zwischen 2 farbigen Bildern). Das muss nicht stimmen, im (ich glaube) 905er-Fred wurde von pspierre die Frage aufgegriffen, aber letztendlich gab und gib es keine konkreten Aussagen zu 400 Hz oder 400 Pro hierzu.
hagge
Inventar
#33 erstellt: 15. Sep 2010, 14:34

Miss_Sophie schrieb:
Ist damit die Zwischenbildberechnung so zu verstehen, dass das eigene menschliche Auge diesen "Verschmierungsprozess" nun wieder selbst darstellen kann, da es ja in der Realität immer "scharfe" Bilder gibt aber durch die ruckartige Drehung des Kopfes dieser Schmiereffekt entsteht?

Also FRC hat mit den Zwischenbildern eigentlich nichts zu tun. FRC kann auch bei völlig still stehenden Bildern genutzt werden.

Beispiel:
Es kommen 8-Bit-Daten von einer Quelle wie DVD oder BD rein. Die interne Verarbeitung in der Bildengine hat mehr als 8 Bit, das Panel am Ende aber dann doch wieder 8 Bit. Jetzt rechnet der Fernseher die Bildeinstellungen des Users (Helligkeit, Kontrast, Farbe, etc.) auf die Quelldaten drauf. Durch die interne höhere Rechengenauigkeit kann er hier sozusagen mit Kommawerten rechnen. Am Ende kommt heraus, dass einige Pixel am Ende z.B. beim Grün-Wert den Wert 123.7 darstellen sollten. Das geht bei einem 8-Bit-Panel natürlich nicht. Also wird nun das FRC dazu verwendet, dass diese Pixel eben jeweils einen Frame lang 123 bei Grün anzeigen und zwei Frames lang 124. Da das Auge träge ist, kriegt es diese schnellen Umschaltungen nicht mit und sieht sozusagen den gewünschten Mittelwert 123 2/3 was schon recht gut an 123.7 rankommt. Das heißt selbst wenn das Bild minutenlang still steht, flackern dennoch bei diesen Pixeln die Grünwerte fortlaufend zwischen 123 und 124 hin und her.

FRC hat also nichts mit der Zwischenbildberechnung von 100Hz-Geräten zu tun. Es ist nur so, dass 100Hz-Geräte eben schnell genug arbeiten, dass selbst bei einer solchen Frequenzteilung in drei oder mehr Zeitabschnitte immer noch Frequenzen herauskommen, die nicht flackern. FRC wird sozusagen nur zur Erweiterung des Farbraums benutzt, also um mehr Zwischenfarben zu simulieren, als die Technik direkt darstellen kann.


Wenn ja, dann kann das eigene Auge ein mit mehreren Zwischenbildern berechnetes Bild mit seinem persönlichen "Schmierfaktor" belegen und somit ein für sich bekanntes Abbild der Realität im Gehirn schaffen - und nicht die Kamera mit seinen Veschlusszeiten. Wenn man einer der von Euch gesponnenen Fäden aufgreift und weiterdenkt, dann ist das schon irre interessant was ihr beide da beschrieben habt!

Jein. Zwar kann man tatsächlich eine Art künstlichen MotionBlur erzeugen, indem man schnell hintereinander versetzte Bilder anzeigt oder mehrere solche Einzelbilder in ein Gesamtbild zusammenkombiniert. Tatsächlich werden auf diese Weise in Computerspielen oder Trickfilmen die MotionBlur-Effekte generiert, also durch zusätzlich berechnete Bilder, die dann in dem letztendlich angezeigten Bild gemischt werden. Sowas ist tatsächlich notwendig für das Auge, damit die Information über die Bewegungsbahn möglichst komplett bleibt. Macht man das nicht, dann scheinen Objekte bei zu großen Bewegungsabständen zu hüpfen, d.h. das Gehirn kann die einzelnen Bewegungspositionen nicht mehr zu einer kontinuierlichen Bewegung zusammensetzen. Das Gleiche passiert, wenn eine Kamera zu kurze Belichtungszeiten nutzt und schnelle Bewegungen zeigt. Zwar sind dann einzelne Bilder aus der Sequenz, wenn man sie als Standbilder anschaut, sehr scharf, aber es geht viel Information über die Bewegungsbahn verloren und die Objekte ruckeln eher als bei längeren Belichtungszeiten.

Aber für die Verringerung der Bewegungsunschärfe bei LCDs trägt dieser MotionBlur nicht bei. Hier kommt es darauf an, dass die einzelnen Stationen wirklich so kurz wie möglich angezeigt werden und dafür aber mehr Frames gebraucht werden, also weitere Bewegungsstationen. Und da diese vielen Bewegungsstationen im eigentlichen Film nicht übertragen werden, muss sie der Fernseher selbst berechnen.

Das FRC kann man sich dann sozusagen als letzte Bearbeitungsstufe vorstellen, die dann eben aus den endgültig anzuzeigenden Bildern die durch die Berechnung geforderten Zwischenfarben durch Flackern der Pixel zwischen zwei benachbarten Werten erzeugt.


Welche Spielereien eines HX905 mit seinen MF400Pro werden dann sinnvoll verwendet?

Nun, die ganze grundlegende Technik der hohen Frequenzen bei LCDs (100Hz, 200Hz, 400Hz) habe ich ja mal in diesem Thread ausführlich erklärt. Letztendlich steckt im HX905 eine 200Hz-Technik mit Dunkelschaltung des Backlights.

Diese Dunkelschaltung wurde von anderen Firmen (allen voran LG) schon letztes Jahr wie eine Frequenzverdopplung verkauft. Das heißt deren 200Hz-Fernseher von 2009 waren eigentlich 100Hz-Geräte mit zwischengeschalteter Dunkelphase durch Abschalten des Backlights. Das wurde von LG eben mit 200Hz verkauft, obwohl es nur 100 verschiedene Bilder waren. Sony war eigentlich immer fair und hat so eine Technik nach wie vor als 100Hz-Technik verkauft (z.B. im X4500). Als dann immer mehr Firmen kamen und ihre 200Hz-Geräte mit Dunkelschaltung als 400Hz-Geräte verkauften, und vermutlich von Kunden die Frage kam, warum Sony so was nicht im Angebot hat, sind sie dann doch irgendwann umgekippt und haben ihre Technik von 200Hz Pro, wie sie noch Anfang des Jahres hieß, auch in 400Pro umbenannt. Das bringt diese Verwirrung, die hier nun teilweise herrscht.

Ob nun die Dunkelphasen durch Abschalten des kompletten Backlights oder durch schrittweise Abschaltung von Bereichen des Backlights erfolgt, ist dann grundsätzlich nicht mehr so relevant. Beides verbessert die Bewegungsschärfe ähnlich gut, aber die Lichtausbeute bei schrittweise Abblenden (Scanning Backlight) ist etwas höher. Das heißt dieses Verfahren flackert etwas weniger als das Blinking Backlight.

Was sich da beim HX905 im Detail alles aktivieren lässt und was dann konkret passiert, darüber diskutieren horde und pspierre gerade im 905-er Thread.

Gruß,

Hagge
dr_squalo
Ist häufiger hier
#34 erstellt: 15. Sep 2010, 15:17
Mal eine Frage an die beiden Experten hier:

Im Grunde brauche ich (wie einige andere auch) nur ein "vernünftiges" Panel mit einem HDMI Anschluss. Sonst nix. Da man eh schon alles extern hat (Sat,BR,AVR5.1)
Wie sieht es da zB mit der neuen EX Serie der Samsung Large Format Monitor Reihe aus.
Hat man hier zB mit dem 460EX einen LED-LCD, der die etlichen Unzulänglichkeiten der TV-Consumergerät evtl. nicht hat?

Danke für jeden Hinweis.
Gruß
Miss_Sophie
Stammgast
#35 erstellt: 15. Sep 2010, 15:50

hagge schrieb:

Miss_Sophie schrieb:
Ist damit die Zwischenbildberechnung so zu verstehen, dass das eigene menschliche Auge diesen "Verschmierungsprozess" nun wieder selbst darstellen kann, da es ja in der Realität immer "scharfe" Bilder gibt aber durch die ruckartige Drehung des Kopfes dieser Schmiereffekt entsteht?

Also FRC hat mit den Zwischenbildern eigentlich nichts zu tun. FRC kann auch bei völlig still stehenden Bildern genutzt werden.


Mein Fehler, denn Du hast schon im ersten Beitrag die Funktionsweise des FRC sehr gut dargestellt! Als ich mir das vorgestellt habe, bin ich gedanklich vom FRC abgeschweift und kam dann bei der Zwischenbildberechnung an die über andere Faktoren mit der FRC verbunden sein müsste:

Bei schnell aufeinander folgenden Bildern mit unterschiedlichem Inhalt (wie es bei 3D abwechselnd für jedes Auge erzeugt werden muss) und - Dein Beispiel aufgreifend - 3 Frames um den Grünwert 123,7 darzustellen, muss es zumindest 3 Frames pro Bild haben um dieses farblich zu vervollständigen. Da bspw. Sony bei 3D mit 48 Hz shuttert, hieße das bei einem 8-Bit-Panel und der in Deinem Beispiel angeführten technischen Farbraumerweiterung, dass man 144 (= 48 * 3) Frames braucht um diese 48 Hz mit einem Grünwert von 123 2/3 anzuzeigen.

Da wird doch die Luft nach oben sehr dünn, denn wenn noch schwarze Bereiche eingefügt werden sollen (Scanning Backlight), dann ist man da schon bei 288 Frames. Und legt man das Ganze auf 4 Frames pro Pixel aus, dann kann man schon bei den von Sony proklamierten 400 Hz ankommen: 384 Frames wären es dann. Viele technischen Spielereien bleiben dann nicht übrig.

Ich gehe davon aus, dass 48 bzw. 60 Hz shuttern pro Auge 24 bzw. 30 Bilder bedeutet.


hagge schrieb:
Was sich da beim HX905 im Detail alles aktivieren lässt und was dann konkret passiert, darüber diskutieren horde und pspierre gerade im 905-er Thread.


Ja, das verfolge ich auch gerade mit Spannung, denn was uns die Werbung glauben lassen möchte, ist einerlei.
Miss_Sophie
Stammgast
#36 erstellt: 15. Sep 2010, 15:52

dr_squalo schrieb:
Mal eine Frage an die beiden Experten hier:

Im Grunde brauche ich (wie einige andere auch) nur ein "vernünftiges" Panel mit einem HDMI Anschluss. Sonst nix. Da man eh schon alles extern hat (Sat,BR,AVR5.1)
Wie sieht es da zB mit der neuen EX Serie der Samsung Large Format Monitor Reihe aus.
Hat man hier zB mit dem 460EX einen LED-LCD, der die etlichen Unzulänglichkeiten der TV-Consumergerät evtl. nicht hat?

Danke für jeden Hinweis.
Gruß


Hmmh, ich schätze mal hier bist Du im falschen Bereich. Hier geht es überwiegend um LC-Displays. Für solche Fragen ist es vielleicht besser im Samung-Bereich zu posten.
dr_squalo
Ist häufiger hier
#37 erstellt: 15. Sep 2010, 23:18
Denke eigentlich nicht. Denn dieser Paneltyp ist ein 46" großer LED-LCD. Nur welches LED Backlightsystem er genau hat, weiß ich nicht. Evtl. könnte es auch sein, weil dieses Modell eher für den professionellen Bereich gedacht ist, dass das display einfach bessere Beleuchtungswerte aufweist, als Consumer Geräte und somit ein Grund gegen umstrittene LEDs wäre (was ja der thread titel hier ist)
Andregee
Inventar
#38 erstellt: 15. Sep 2010, 23:22

Elsensee schrieb:

könnt ihr das nicht unter euch austauschen.
mir ist das zu langweilig zu lesen.


welch Armutszeugnis, wann bekommt man selbst als Techniker mal solche Detaills zu lesen....
Dank an die beiden Diskutanten!


ein armutszeugnis ist, das man sich sowas von anderen noch vorkauen lassen muß weil man es selbst nicht weiß.
sowas geht aber auch kompakter.
hagge
Inventar
#39 erstellt: 16. Sep 2010, 01:17

Andregee schrieb:
ein armutszeugnis ist, das man sich sowas von anderen noch vorkauen lassen muß weil man es selbst nicht weiß.

Na klar, Du hast alles schon mit der Muttermilch mitgekriegt, wusstest das alles schon von Anfang an und musstest Dir nie Wissen irgendwo anlesen. Glück für Dich. Andere müssen eben ein bisschen nachfragen, wenn sie was lernen wollen. Und ich versuche dann eben ab und zu, etwas zu erklären, und das möglichst verständlich. Sorry wenn Dich das langweilt, aber Du musst diesen Thread ja nicht lesen.


sowas geht aber auch kompakter.

Zum Beispiel wie?

Gruß,

Hagge
Der_Tom
Hat sich gelöscht
#40 erstellt: 16. Sep 2010, 02:41
dabei wollte ich doch nur Fernseh schauen
Miss_Sophie
Stammgast
#41 erstellt: 16. Sep 2010, 10:38

Andregee schrieb:
ein armutszeugnis ist, das man sich sowas von anderen noch vorkauen lassen muß weil man es selbst nicht weiß.
sowas geht aber auch kompakter.


Ich seh es da wie hagge: Es gibt keine blöden Fragen - nur blöde Antworten. War das kurz genug?
hagge
Inventar
#42 erstellt: 16. Sep 2010, 23:55

dr_squalo schrieb:
Evtl. könnte es auch sein, weil dieses Modell eher für den professionellen Bereich gedacht ist, dass das display einfach bessere Beleuchtungswerte aufweist, als Consumer Geräte und somit ein Grund gegen umstrittene LEDs wäre (was ja der thread titel hier ist)

Nun, ich habe mir mal das Ding auf der Webseite angesehen. Sowas ist immer schwer abzuschätzen. Vermutlich ist es für Werbe- und Informationstafeln gedacht. Ob das dann auch für Heimanwendungen so gut geeignet ist, kann man schwer einschätzen. Billiger ist es jedenfalls nicht, obwohl das eine oder andere Feature eines typischen Fernsehers fehlt, wie z.B. ein Tuner.

Gruß,

Hagge
Andregee
Inventar
#43 erstellt: 17. Sep 2010, 00:03

Miss_Sophie schrieb:

Andregee schrieb:
ein armutszeugnis ist, das man sich sowas von anderen noch vorkauen lassen muß weil man es selbst nicht weiß.
sowas geht aber auch kompakter.


Ich seh es da wie hagge: Es gibt keine blöden Fragen - nur blöde Antworten. War das kurz genug? :KR


nein. aber wenig kreativ. man könnte glatt meinen bovine spongiforme enzephalopathie ist ein weitreichendes problem dieser welt geworden.
ich kann mich nicht dran erinnern eine antwort gegeben zu haben.

In der Physik gilt lautet Aktio=Reaktio so auch beim menschen.
NX-01
Stammgast
#44 erstellt: 17. Sep 2010, 00:12
Also ich schließ mich Andregee an. Das sind technische Details, die ich nicht ansatzweise verstehe, und die mich als "normalen" TV-Käufer auch überhaupt nicht interessieren (brauchen). Der erste Beitrag von hagge war sehr gut und völlig ausreichend. Der restliche Austausch des Fachkauderwelsch ist mehr als überflüssig für diese Plattform.
Frankman_koeln
Inventar
#45 erstellt: 17. Sep 2010, 01:00
sehe ich ganz anders, grad von solchem fachwisen profitiert diese plattform immer mal wieder, schwätzer gibt es nämlich viel zu viele.

allerdings kenn ich eine naheliegende lösung für dich : du liest einfach nicht was dich nicht interessiert - fertig.

ist doch kein problem ....
Miss_Sophie
Stammgast
#46 erstellt: 17. Sep 2010, 09:47

Andregee schrieb:
ich kann mich nicht dran erinnern eine antwort gegeben zu haben.


Es fragt der eine, der andere antwortet und der Dritte lässt einen nicht sehr qualifizierten Kommentar ab. Wenn es Dich nicht interessiert, dann les nicht mit und kommentiere nicht Deine Unlust.

Das einzige was passiert, ist, dass ein paar Leute sich Deiner Langeweile annehmen und ein sehr informativen Thread zweier Fachleute ins offtopic verkehren. Sieht mir eher so aus, dass es in einem Forum einige mit einem ADS-Syndrom gibt.

Und jetzt schreib was Du möchtest, ich hab nu keine Lust mehr mich in einem Thread über die Funktionsweise von LED-Displays mit Rinderwahn oder Langeweile auseinanderzusetzen.
Sporty2
Stammgast
#47 erstellt: 17. Sep 2010, 15:45

NX-01 schrieb:
Also ich schließ mich Andregee an. Das sind technische Details, die ich nicht ansatzweise verstehe, und die mich als "normalen" TV-Käufer auch überhaupt nicht interessieren (brauchen). Der erste Beitrag von hagge war sehr gut und völlig ausreichend. Der restliche Austausch des Fachkauderwelsch ist mehr als überflüssig für diese Plattform.


Ich sehe es genau so. Aber nur weil ich es nicht verstehe
Es ist wirklich gut das hier im Forum eine Hand voll Leute sind die wirklich wissen wie was zusammen hängt. Allerdings bringt mir das leider nix. Mich interessiern halt nur die Endergebnisse. Deswegen lese ich das erst gar nicht. Ist ganz einfach Also weiter so. Ausserdem wenn diese Fachleute was gefragt werden sind Sie doch in der Lage auch Antworten zu geben die auch für Laien verständlich sind. Aber diese Antworten haben dann auch Hand und Fuß und sind nicht geraten.
Gruß Uli
hagge
Inventar
#48 erstellt: 17. Sep 2010, 17:02

NX-01 schrieb:
Das sind technische Details, die ich nicht ansatzweise verstehe, und die mich als "normalen" TV-Käufer auch überhaupt nicht interessieren (brauchen). Der erste Beitrag von hagge war sehr gut und völlig ausreichend. Der restliche Austausch des Fachkauderwelsch ist mehr als überflüssig für diese Plattform.

Hmm, wo ziehst Du hier die Grenze? Nehmen wir mal an, jemand ist technisch noch weniger bewandert als Du und versteht auch meinen ersten Beitrag nicht. Wenn der nun ebenfalls sagt, ich hätte mir den schenken können, nur weil es ihm langweilig ist und weil er meint, selbst das braucht man als TV-Käufer nicht unbedingt wissen, was dann? Darf dann nie jemand mehr hier was ansatzweise Technisches schreiben nur weil ja theoretisch jemand da sein könnte, dem das zu hoch ist und der sich deswegen gelangweilt fühlt? Nur weil Dich zufällig mein erster Beitrag interessiert hat, war der OK und die anderen nicht? Das ist schon ein bisschen arg egoistisch gesehen, oder? Es zwingt euch doch niemand dazu, die anderen Beiträge zu lesen.

Ich verstehe ja, dass die Diskussion zwischen Denis und mir auf recht hohem Level war. Aber warum man das dann als langweilig abtut, das kann ich nicht nachvollziehen. Entweder es interessiert mich als Leser, dann lese ich es, versuche es zu verstehen und stelle ggf. Fragen dazu. Oder es interessiert mich nicht, und dann lese ich es eben nicht. Auch OK. Aber könnt ihr es denn nicht nachvollziehen, dass es für uns Technikfreaks manchmal auch nett ist, auf etwas höherem Level zu diskutieren um selbst was neues zu lernen und mal ausnahmsweise nicht immer nur zu erklären? Dabei ist es ja nicht mal so dass ich nicht gleich wieder erklärt hätte, als die erste Anmerkung bzw. Frage kam.

Ich finde zum Beispiel solche Diskussionen über Sinn und Unsinn solcher Postings wesentlich langweiliger und unergiebiger, als wenn ich mal einen Beitrag überspringe, weil ich ihn nicht verstehe.

Gruß,

Hagge


[Beitrag von hagge am 17. Sep 2010, 17:03 bearbeitet]
Muffin72
Schaut ab und zu mal vorbei
#49 erstellt: 25. Sep 2010, 11:05
Ich frage mich wo das Problem ist.... wenn jemand diese Ausführungen zu episch findet, dann kann man entweder den Post überlesen, oder seinen eigenen Thread aufmachen und um eine schlichtere Diskussion bitten, oder irgendwelche Bildforen besuchen. Ich für meinen Teil verstehe viele Dinge auch nicht, da ich keinen tieferen technischen Background zu LCD/LED habe, aber ich selektiere einfach und überlese die Sachen, die mir zu technisch sind.
Nochmal danke an Euch für die Diskussion, sowas ist mir viel lieber als ein plattes "kauf den ersten, der Schwager meines Kumpels hat auch einen und der findet den gut"
!Frank_Lampard!
Ist häufiger hier
#50 erstellt: 04. Okt 2010, 03:55

hagge schrieb:
Hierfür wurden nun Lösungen gesucht. Und die LEDs bieten hier eigentlich einen guten Ausweg an. Wie Du selbst sagst, gibt es hier zwei grundlegende Techniken: Edge-LED und Full-LED. Bei Edge-LED werden Leuchtdioden am Rand des Displays angebracht (also an der Kante = engl. "edge"). Bei Full-LED sind die LEDs flächig hinter dem Schirm verteilt.

Ob nun Edge oder ein Gerät mit Full-LED, welches der zwei Techniken hat einen besseren Blickwinkel ?
hagge
Inventar
#51 erstellt: 04. Okt 2010, 12:55
Ich würde sagen, das spielt keine Rolle, da der Blickwinkel durch das LCD-Panel gegeben ist und das Backlight dahinter weitgehend irrelevant ist.

Gruß,

Hagge
Suche:
Gehe zu Seite: Erste Letzte |nächste|
Das könnte Dich auch interessieren:
Warum gibts kein 50`LED?
magicmaiksen am 26.02.2011  –  Letzte Antwort am 27.02.2011  –  4 Beiträge
Warum immer noch neue Edge-LED-Fernseher?
Micha369 am 05.11.2009  –  Letzte Antwort am 09.11.2009  –  4 Beiträge
Full LED oder Edge LED
Sporty2 am 30.09.2010  –  Letzte Antwort am 03.10.2010  –  5 Beiträge
Direkt LED / Edge LED
trigek94 am 03.01.2011  –  Letzte Antwort am 04.01.2011  –  4 Beiträge
Warum 1080p
JugoBetrugo am 17.07.2009  –  Letzte Antwort am 19.07.2009  –  4 Beiträge
Warum LCD ?
Mondieu am 11.12.2006  –  Letzte Antwort am 12.12.2006  –  8 Beiträge
Full-LED vs. Edge-LED (Tendenz 2013?)
RuBBeRBuLLeT am 12.10.2012  –  Letzte Antwort am 23.12.2012  –  23 Beiträge
Warum sterben 3D Tvs?
thomaz am 05.12.2016  –  Letzte Antwort am 07.06.2017  –  23 Beiträge
Warum schlechte PAL-Qualität?
SonyFriend am 23.11.2007  –  Letzte Antwort am 24.11.2007  –  6 Beiträge
Warum sind die kleineren LCD so teuer ?
Herget am 28.06.2007  –  Letzte Antwort am 30.06.2007  –  2 Beiträge
Foren Archiv

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder845.230 ( Heute: 2 )
  • Neuestes Mitgliedssddffgg
  • Gesamtzahl an Themen1.409.194
  • Gesamtzahl an Beiträgen18.839.772