Gehe zu Seite: |vorherige| Erste Letzte

Killerfrage: 120Hz Fernseher gesucht!

+A -A
Autor
Beitrag
hagge
Inventar
#51 erstellt: 16. Jun 2010, 23:59

tim.lbg schrieb:
24fps wird bis zum Universum Ende ruckeln! Auch 30 sind zu wenig! Das wird man technisch nie wegbekommen (ausser vielleicht mit zwischen Bild berechnung), da es einfach zu wenig Bilder pro Sekunde sind. Früher bei nem TV hat dies das Menschliche Auge nicht erkannt, da der Röhren-TV das Bild verwischt hat.

Diese Aussagen sind leider falsch. Das menschliche Auge kann ab ca. 16 Bildern pro Sekunde die einzelnen Bilder nicht mehr unterscheiden. Bei den 24 Bildern pro Sekunde, die das Kinoformat hat, ist die Bewegung absolut flüssig, *wenn* nicht durch Fehler bei der Aufnahmen wichtige Bewegungsinformation verloren ginge.

Zur Erklärung:
Auch im realen Leben kann das menschliche Auge nicht beliebig schnelle Bewegungen auflösen. Was passiert? Solche Bewegungen verschwimmen auf der Netzhaut. Das heißt wenn der Mensch solche schnellen Bewegungen als kontinuierlich sehen soll, muss nur die Bewegungsbahn lückenlos sein. Ob sie dabei scharf ist oder verschmiert, ist das hingegen völlig egal, denn auch in der Realität sieht das Auge in solchen Situationen eine verschwommene Bewegungsbahn.

Warum ruckelt es also dann im Kino und bei 24p? Weil die Belichtungszeiten der Aufnahmen heutzutage viel zu kurz gewählt werden. Dadurch sind zwar die einzelnen Frames nahezu scharf (was der Grund für diesen Trend hin zu diesen kurzen Belichtungszeiten ist, damit Standbilder von DVDs scharf sind). Aber dafür fehlen wichtige Abschnitte der Bewegungsbahn. Denn nun existieren wirklich nur noch 24 Einzelpositionen der Bahn anstatt einer kontinuierlichen Strecke. Solange die Bewegungen langsam sind, sind diese Punkte noch nahe genug beieinander, damit sie das Gehirn wieder zu einer kontinuierlichen Bewegung zusammensetzen kann. Aber wenn die Bewegung schnell ist, dann liegen diese einzelnen Bewegungspunkte zu weit auseinander, so dass sie das Gehirn eben nicht mehr als eine fortlaufende Bewegung erkennt. Die Folge: es ruckelt.

Die Lösung für ruckelfreie Wiedergabe bei 24p wäre also recht trivial: man müsste nur wieder längere Belichtungszeiten nutzen. Dann ist die Bewegungsbahn wieder deutlich vollständiger. Zwar wären dann die einzelnen Frames als Standbilder betrachtet nicht mehr scharf, aber mal ehrlich, das ist doch komplett irrelevant. Das bewegte Bild soll perfekt sein, nicht das Standbild.


Habe das selber getestet und Landfschaftschwegs (auch sehr oft bei Fußballspielen sichtbar) mit 1080P30 und 720P60 (GoProHD) aufgenommen. Bei letzterem ist das Bild so bewegungsscharf und schnell das Dir vorm LCD schlecht wird.

Natürlich funktioniert das alles dann auch wieder bei höherer Bildrate. Dann spielt es sozusagen immer weniger eine Rolle, wie kurz die Belichtung war, weil die Bewegungsbahn sich dann aus mehr einzelnen Punkten zusammensetzt und somit die Information für das Gehirn auch wieder ausreicht.

Insofern wäre es längerfristig tatsächlich sinnvoll, auf eine höhere Bildrate zu gehen. Aber das wird nicht so schnell gehen, da einfach zu viel im gesamten Produktionsprozess von Kinofilmen auf 24 Bilder pro Sekunde ausgelegt ist.

Aber zu sagen, dass 24 Bilder pro Sekunde immer ruckeln, ist eben nicht richtig. Es kommt nur auf die Belichtungszeit der einzelnen Bilder an. Darum sind alte Spielfilme auch nahezu ruckelfrei, da die damaligen Filmkameras deutlich längere Belichtungszeiten brauchten. Umgekehrt wird eine schnelle Bewegung, die bei hellem Sonnenschein aufgenommen wurde, also mit extrem kurzer Belichtungszeit, am ehesten ruckeln.


Die ganzen Blue Rays mit Spielfilmen die auf dem Markt sind kannst also eigentlich in die Tonne kicken.

Nein. Wenn es wirklich so mies wäre, dann hätte man bei der BluRay auf ein anderes Format gesetzt. Wird ein Film aber richtig aufgenommen, ruckelt nichts, aber auch wirklich gar nichts bei 24p. Das Format ist also durchaus geeignet.


Genau aus diesem Grund hat ARD und ZDF ihr HD Programm auch für 720P50 entschieden, statt für 1080i30!!!

Das ist zwar richtig, aber auch hier ist es eher die Kapitulation vor falsch aufgenommenen Sequenzen. Denn gerade bei Sportereignissen wie Fußball wird besonders kurz belichtet, damit die Aufnahmen auch noch als Zeitlupe scharf sind. Eine Zeitlupe ist aber die Abfolge der Einzelbilder als Standbilder. Genau dieser Wunsch für gute Zeitlupen führt aber wieder zu den ruckelnden Eindrücken beim normalen Tempo mit 25fps und nur darum ist in diesem Fall 50fps besser. Das heißt die Entscheidung von ARD und ZDF ist nur bei Sportereignissen sinnvoll, und auch nur dann, wenn die Produktion tatsächlich gleich in 50p aufgenommen wird. Das sind aber nur ganz wenige Fälle. Denn da in der Praxis nahezu alle internationalen Sportereignisse in 25i produziert werden und alle Filme sowieso in 24p vorliegen, existieren de facto fast nur Fälle, in denen das Format von ARD/ZDF nachteilig und dem 1080i25-Format unterlegen ist. Darum war die Entscheidung der ÖR aus meiner Sicht falsch.


Vor allem weil "i" beim LCD eh nichts bringt!

Auch das ist nicht richtig. Durch den Deinterlacer im TV, der heutzutage adaptiv funktioniert, hat man auch bei einem Eingangssignal von 1080i25, also mit 50 Halbbildern, am Ende entweder 50 Vollbilder, oder eben 25 Vollbilder. Ein guter Fernseher erkennt diese beiden Formate und zeigt sie völlig perfekt an.


Die Bewegungsunschärfe + ruckel bekommt man halt einfach nur mit mehr realen Bilder pro Sekunde hin.

Eben nicht. Längere Belichtungszeiten tun's auch!

Gruß,

Hagge
Zweck0r
Moderator
#52 erstellt: 17. Jun 2010, 02:18

Sven.M schrieb:
der input lag kommt daher dass erstmal 2 komplette bilder gepuffert und zusammengesetzt werden bevor irgendwas ausgegeben wird
fuer gamer also absoluter schrott


Das Puffern dauert doch nur zwei 120-Hz-Frames bzw. einen 60-Hz-Frame, was ca. 17 ms entspricht. Würde ich als vernachlässigbar einstufen.

Bleibt abzuwarten, welche Nvidia-Grafikkarten überhaupt 120 Hz im HDMI 1.4-Format ausgeben können. Meine GTX 275 bestimmt nicht, aber ich brauche zum Zocken auch keinen größeren Monitor als den 2233RZ.


hagge schrieb:
Auch im realen Leben kann das menschliche Auge nicht beliebig schnelle Bewegungen auflösen. Was passiert? Solche Bewegungen verschwimmen auf der Netzhaut. Das heißt wenn der Mensch solche schnellen Bewegungen als kontinuierlich sehen soll, muss nur die Bewegungsbahn lückenlos sein. Ob sie dabei scharf ist oder verschmiert, ist das hingegen völlig egal, denn auch in der Realität sieht das Auge in solchen Situationen eine verschwommene Bewegungsbahn.


Du vergisst dabei, dass das Auge bewegte Objekte fokussieren und verfolgen kann. In der Realität kann man z.B. Werbung auf einem vorbeifahrenden Bus scharf erkennen, bei 24 fps hat man entweder Ruckeln oder Matsch. Solche Frameraten sind unerträglich und ich bin froh, dass es seit einiger Zeit Fernseher gibt, die die von den Filmstudios eingesparten Bilder wieder dazuerfinden können.

Grüße,

Zweck
Sven.M
Ist häufiger hier
#53 erstellt: 17. Jun 2010, 22:32

Zweck0r schrieb:
Das Puffern dauert doch nur zwei 120-Hz-Frames bzw. einen 60-Hz-Frame, was ca. 17 ms entspricht. Würde ich als vernachlässigbar einstufen.

im idealfall
daraus wird in der praxis aber leider schnell mal 30-40ms oder mehr
+ der typische hdtv lag


hagge schrieb:
Auch im realen Leben kann das menschliche Auge nicht beliebig schnelle Bewegungen auflösen.

das menschlich auge kann mindestens 500 bilder pro sekunde erfassen
in der realitaet vermutlich deutlich mehr
aber das gehirn verarbeitet nicht viel mehr


[Beitrag von Sven.M am 17. Jun 2010, 22:32 bearbeitet]
hagge
Inventar
#54 erstellt: 18. Jun 2010, 23:38

Zweck0r schrieb:
Du vergisst dabei, dass das Auge bewegte Objekte fokussieren und verfolgen kann.

Darum geht es hier aber doch gar nicht. Wenn man ein bewegtes Objekt mit dem Auge bzw. der Kamera verolgt, dann steht es ja praktisch still, das heißt es bewegt sich ja gerade *nicht* mehr. Dieser Fall spielt für die Bewegtbildaufnahme des Auges also gar keine Rolle.


In der Realität kann man z.B. Werbung auf einem vorbeifahrenden Bus scharf erkennen, bei 24 fps hat man entweder Ruckeln oder Matsch.

Und das stimmt eben nicht. Wenn Du geradeaus schaust und der Bus fährt vorbei, dann siehst Du in der Realität genau den gleichen Matsch wie bei 24 fps oder 50 fps oder 100fps. Es geht nämlich gar nicht um den Matsch, sondern um das Ruckeln. Und wenn Du hier eben 24 fps hast, die mit je 1/1000s aufgenommen sind, dann siehst Du nur 24 Stationspunkte, die der vorbeifahrende Bus einnimmt. Dann ruckelt es. Aber wenn Du hier 24 fps hast, die mit ca. 1/30s aufgenommen sind, dann ist die Bewegungsbahn durch den entstehenden Motionblur nahezu komplett und es ruckelt nichts. Es kommt also auf die Aufnahmetechnik an, nicht auf die Frames pro Sekunde. Bei 24p kann theoretisch alles komplett ruckelfrei sein, *wenn* es richtig gemacht ist.

*Das* war meine Aussage.


Sven.M schrieb:
das menschlich auge kann mindestens 500 bilder pro sekunde erfassen
in der realitaet vermutlich deutlich mehr
aber das gehirn verarbeitet nicht viel mehr

Nicht viel mehr als was? Als 24fps oder als 500fps? Natürlich ging es mir um den menschlichen Sehapparat als Ganzes, also Auge plus Gehirn.

Man muss ja immer unterscheiden, um welche Art der Wahrnehmung es geht. Bei der Bewegungsauflösung verschwimmen die einzelnen Bilder schon ab etwa 16 fps zu einer flüssigen Bewegung. Aber z.B. Hell-Dunkel-Unterschiede (Flimmern) kann man noch weit über 50Hz wahrnehmen.

Gruß,

Hagge
Zweck0r
Moderator
#55 erstellt: 19. Jun 2010, 02:11

hagge schrieb:
Wenn Du geradeaus schaust und der Bus fährt vorbei, dann siehst Du in der Realität genau den gleichen Matsch wie bei 24 fps oder 50 fps oder 100fps.


Es schaut aber niemand starr geradeaus, weder in der Realität noch auf eine Kinoleinwand oder einen Fernseher. Die Augen verfolgen das Objekt, das man gerade ansieht, automatisch, und das Gehirn 'rechnet' vorhersehbare Bewegungen heraus. Je gleichmäßiger die Bewegung, desto besser gelingt das.

Die einzige Möglichkeit, mit 24 fps eine realistische Bewegungsschärfe zu erreichen, ist, jedes Bild nur kurz aufblitzen zu lassen und zwischendurch dunkel zu tasten. Das Geflimmer ist allerdings noch unerträglicher als Ruckeln oder Matsch.

Fazit bleibt: 24 fps sind unbrauchbar.

Grüße,

Zweck
Sven.M
Ist häufiger hier
#56 erstellt: 19. Jun 2010, 23:37

hagge schrieb:
Nicht viel mehr als was? Als 24fps oder als 500fps? Natürlich ging es mir um den menschlichen Sehapparat als Ganzes, also Auge plus Gehirn.

das gehirn selbst verarbeitet nicht viel mehr als 500fps
das auge nimmt logischerweise mehr oder gleichviel wahr
hagge
Inventar
#57 erstellt: 20. Jun 2010, 00:51

Zweck0r schrieb:
Es schaut aber niemand starr geradeaus, weder in der Realität noch auf eine Kinoleinwand oder einen Fernseher. Die Augen verfolgen das Objekt, das man gerade ansieht, automatisch, und das Gehirn 'rechnet' vorhersehbare Bewegungen heraus. Je gleichmäßiger die Bewegung, desto besser gelingt das.

Korrekt.


Die einzige Möglichkeit, mit 24 fps eine realistische Bewegungsschärfe zu erreichen, ist, jedes Bild nur kurz aufblitzen zu lassen und zwischendurch dunkel zu tasten.

Auch völlig korrekt. Aber Du redest völlig am Thema vorbei. Du beschreibst hier die Problematik eines LCD-Fernsehers, oder besser gesagt eines Hold-Type-Displays, bei Bewegungen. Aber darum geht es doch gar nicht, sondern es ging ums Ruckeln. Und meine Aussage bezog sich ausschließlich auf das Ruckeln.


Fazit bleibt: 24 fps sind unbrauchbar.

Nein. Würde man aktuelle Filme mit lang genug belichteten Bildern im Kino anschauen, würde nichts ruckeln.

Wohlgemerkt: Ich bin durchaus auch der Meinung, dass mehr FPS in keinster Weise schaden würden, außer dass die Datenrate wieder kräftig in die Höhe ginge. Aber so schlecht, wie die 24p- bzw. BluRay-Technik hier geredet wird, ist sie halt auch wieder nicht. Man müsste es nur richtig machen.

Aber bitte nicht die Unzulänglichkeiten eines Wiedergabemediums als grundsätzliches Problem der 24p-Framerate verallgemeinern. Ja, LCD hat mit Bewegungsunschärfe zu kämpfen. Ja, das wird mit Zwischenbildern und/oder Backlight-Blinking angegangen. Aber das sind alles Probleme, die mit dem Ruckeln von 24p nichts zu tun haben.

Gruß,

Hagge
hagge
Inventar
#58 erstellt: 20. Jun 2010, 00:53

Sven.M schrieb:
das gehirn selbst verarbeitet nicht viel mehr als 500fps
das auge nimmt logischerweise mehr oder gleichviel wahr

Wie kommst Du auf diese Zahl? Wenn doch schon ein Film mit 24 Bildern pro Sekunde nicht mehr als Einzelbilder wahrnehmbar ist?

Hagge
Zweck0r
Moderator
#59 erstellt: 20. Jun 2010, 01:23

hagge schrieb:


Fazit bleibt: 24 fps sind unbrauchbar.

Nein. Würde man aktuelle Filme mit lang genug belichteten Bildern im Kino anschauen, würde nichts ruckeln.


Wenn es nicht ruckelt, schmiert es wegen der langen Belichtungszeit. Was ein von den Augen verfolgtes bewegtes Objekt in der Realität nicht tut. Das bleibt knackscharf.

Man hat bei 24 fps immer entweder Ruckeln, Schmieren oder Flimmern -> Müll.

Kinoprojektoren nutzen übrigens auch eine Art 'Blinking Backlight'. Damit das Abblenden beim Bildwechsel nicht flimmert, wird es einfach pro Bild dreimal ausgeführt, also mit 72 Hz Blinkfrequenz. Das 24-fps-Ruckeln sieht man (ich zumindest) dabei als gleichmäßige Bewegung mit überlagertem Kantenflattern, weil das Gehirn bei jedem Aufblitzen ein weitergewandertes Bild erwartet. Zu sehen bekommt man aber dreimal das gleiche Bild.

Grüße,

Zweck
Sven.M
Ist häufiger hier
#60 erstellt: 20. Jun 2010, 02:29

hagge schrieb:
Wie kommst Du auf diese Zahl? Wenn doch schon ein Film mit 24 Bildern pro Sekunde nicht mehr als Einzelbilder wahrnehmbar ist?

Hagge

das war von wikipedia oder irgendwelchen seiten ueber das thema
soll vom us-militaer mit jet-piloten getestet worden sein

an der serioesitaet habe ich aber keine zweifel

kann selbst im blindtest zwischen 100 und 120 unterscheiden
mehr habe ich leider nicht getestet weil mein crt nur 120hz in sinnvollen aufloesungen bringt


[Beitrag von Sven.M am 20. Jun 2010, 02:30 bearbeitet]
hagge
Inventar
#61 erstellt: 24. Jun 2010, 11:39

Zweck0r schrieb:
Wenn es nicht ruckelt, schmiert es wegen der langen Belichtungszeit. Was ein von den Augen verfolgtes bewegtes Objekt in der Realität nicht tut. Das bleibt knackscharf.

Und genau das stimmt nicht. Hast Du beispielsweise schon mal versucht, in der Nacht eine Taschenlampe oder eine Fackel im Kreis zu bewegen? Du siehst, wenn Du es schnell machst, einen Kreisbogen oder gar einen kompletten Kreis, nicht mehr nur einen sich kreisförmig bewegenden Punkt. Das Bild verschmiert also sehr wohl auch in der Realität. Bei Tag fällt es nur nicht so stark auf.

Nochmal: wenn Du dem Objekt folgst, dann bewegt es sich nicht mehr relativ zum Auge. Dann ist es auch sozusagen kein bewegtes Objekt mehr. Das ist genauso, als ob die Kamera in einem Film dem bewegten Objekt folgt. Dann ist es auch bei längeren Belichtungszeiten noch scharf. Dieser Fall ist hier aber völlig uninteressant. Es geht um Objekte, denen man mit dem Auge *nicht* folgt. Und die verschmieren auch in der Realität.

Dass der Mensch die Bewegungsunschärfe in den Bildern *braucht* um eine ruckelfreie Bewegung zu erkennen, haben auch schon lange die Trickfilm-Hersteller erkannt. Sowohl bei handgezeichneten Trickfilmen als auch bei computergenerierten Filmen wird künstlich eine Bewegungsunschärfe hineingezeichnet bzw. hineingerechnet, weil sonst genau das passiert: es ruckelt.


Man hat bei 24 fps immer entweder Ruckeln, Schmieren oder Flimmern -> Müll.

Nicht ganz. Da das Schmieren wie gesagt ein ganz normaler Effekt ist, der auch in der Realität passiert, spielt es eben genau keine Rolle und macht eben *keinen* Müll.


Kinoprojektoren nutzen übrigens auch eine Art 'Blinking Backlight'. Damit das Abblenden beim Bildwechsel nicht flimmert, wird es einfach pro Bild dreimal ausgeführt, also mit 72 Hz Blinkfrequenz. Das 24-fps-Ruckeln sieht man (ich zumindest) dabei als gleichmäßige Bewegung mit überlagertem Kantenflattern, weil das Gehirn bei jedem Aufblitzen ein weitergewandertes Bild erwartet. Zu sehen bekommt man aber dreimal das gleiche Bild.

Hier vermischst Du wieder mehrere Dinge, die getrennt betrachtet gehören.

Erstens gibt es ein Schmieren bei bewegten Objekten an LCDs. Die entsteht aber durch die Hold-Type-Charakteristik des Displays (es wird nicht dunkel zwischen den Frames, sondern die Pixel ändern erst dann ihre Farbe, wenn sich der Bildinhalt ändert). Dieses Verschmieren ist also LCD-technisch bedingt und darf nicht mit dem Verschmieren von schnell bewegten Objekten aufgrund der Belichtungszeit, also dem MotionBlur, verwechselt werden. Das erstere nimmt der Mensch tatsächlich als unscharf wahr, weil es nicht mit der gleichförmigen Bewegungsgeschwindigkeit des Objekts korreliert, das zweite ist völlig natürlich und wird nicht als unscharf wahrgenommen.

Zweitens hat die zeitliche Auflösung des menschlichen Auges von Bewegtbildern, die etwa bei 16 Bildern pro Sekunde liegt, nichts mit der zeitlichen Auflösung von Hell-Dunkel-Unterschieden, also Flimmern, zu tun, was irgendwo um die 50Hz liegt, oder sogar noch deutlich darüber. Durch die Mehrfachbelichtung im Kino wird also nur das Flimmern verringert, mit der Verbesserung des Bewegungsflüssigkeit hat das aber gar nichts zu tun. In der Tat hat es sogar den von Dir beschriebenen negativen Nebeneffekt, dass dadurch bewegte Objekte nun Mehrfachkanten aufweisen. Das ist aber ein Übel, das notwendigerweise in Kauf genommen werden muss, da ohne die Mehrfachbelichtung das Flimmern unerträglich wäre. Aber auch diese Mehrfachkanten sind eigentlich kein wirkliches Ruckeln, sondern nur eine Art Unschärfe. Man könnte allerdings das Gefühl haben, dass es ruckelt, denn wenn ein Objekt drei Kanten hat, dann denkt man, dass es sich ja ruckelnd bewegt haben müsste, denn wo sollten sonst die drei Kanten her kommen. In Wirklichkeit ist es aber eine Art Bewegungsunschärfe, die mit der oben genannten Unschärfe bei LCDs zu vergleichen ist, also eigentlich nichts mit dem MotionBlur im Bild selbst zu tun hat.

Drittens sind natürlich auch im Kino immer aktuelle Filme zu sehen, die zu kurz belichtet wurden. Das heißt auch dort sind aus diesem Grund die Sprünge (oder das Ruckeln) bei schnellen Bewegungen aufgrund der zu geringen Bewegungsbahninformation zu beobachten. Dies bestätigt aber eher meine Beobachtung, dass längere Belichtungszeiten notwendig wären. Oder zumindest widerlegt es sie nicht.

Nochmal: früher hatten die Filme aufgrund der schlechteren Aufnahmemöglichkeiten (weniger lichtempfindliches Materials, schlechtere Kameraoptiken, langsamere Kameraverschlüsse) alle viel längere Belichtungszeiten. Und da wurde nie über Ruckeln berichtet. Wenn man mal einen älteren Film im Kino anschaut, dann taucht dort auch heute kein Ruckeln auf, eben weil die Bilder Bewegungsunschärfe beinhalten. Für das Anschauen, also die Qualität der Bildschärfe, spielt das schlichtweg keine negative Rolle, die Bewegungen wirken deswegen nicht unschärfer, aber sie wirken gleichförmiger. Oder schau Dir mal auf DVD oder gerne auch BluRay ein paar verschiedene Filme an. Suche Szenen, die besonders stark ruckeln und schau Dir dann ein Standbild an. Dann suche mal Szenen, wie gesagt vorzugsweise in älteren Filmen, die vergleichsweise wenig ruckeln, *obwohl* sie Bewegung enthalten und schau Dir dann mal ein Standbild an. Du wirst sehen, dass die Szenen mit weniger Ruckeln allesamt Bewegungsunschärfe haben, während die ruckeligen Szenen relativ scharfe Bilder haben. Q.E.D.

Inwieweit eine Restaurierung eines Filmes, sagen wir mal eines James Bonds oder eines Star-Wars-Films, Einfluss auf diesen Effekt hat, kann ich jetzt nicht beurteilen. Möglicherweise wurde bei der digitalen Nachbearbeitung auch der MotionBlur reduziert. Dann würden natürlich auch solche älteren, aufbereiteten Filme das Ruckeln zeigen. Weil sonst habe ich gerade die Idee, dass Star Wars eigentlich ein ganz gutes Beispiel wäre. Wenn hier mal die Episode 4 von vor über 30 Jahren, mit herkömmlichen Filmkameras und herkömmlichen Belichtungszeiten gedreht, mit Episode 3 von 2005 vergleichen würde, wo rein mit digitalen Kameras und vermutlich entsprechend kurzen Belichtungszeiten gearbeitet wurde. Allerdings habe ich das jetzt noch nicht selbst überprüft und vielleicht ist das doch kein so gutes Beispiel. Denn es könnte sowohl sein, dass die Episode 4 durch die Überarbeitung leider nun auch solche Ruckeleffekte aufweist. Oder umgekehrt könnte ich mir auch vorstellen, dass George Lukas das notwendige technische Verständnis besitzt, die Belichtungszeiten korrekt zu wählen, und bei seinen Computereffekten genug MotionBlur hinein zu rechnen, so dass möglicherweise auch bei den neuen Filmen nichts ruckelt. Man müsste das einfach mal ausprobieren.

Gruß,

Hagge
hagge
Inventar
#62 erstellt: 24. Jun 2010, 11:52

Sven.M schrieb:
das war von wikipedia oder irgendwelchen seiten ueber das thema
soll vom us-militaer mit jet-piloten getestet worden sein

Hmm, da muss man aber wieder mal unterscheiden, was denn getestet wurde. Dass man einen Blitz z.B. wahrnehmen kann, der nur 1/10000s dauert, wo also theoretisch 10000 "Bilder" pro Sekunde belichtet werden könnten, ist klar. Somit kann man durchaus Dinge wahrnehmen, die nur kurz in einem Film aufblitzen.

Auf der anderen Seite gab es aber beispielsweise Tests, wo mitten in Spielfilmen einzelne Frames mit Werbung eingestreut wurden. Die Bilder wurden von niemandem bewusst bemerkt, aber dennoch hatten sie ihre Wirkung: nach der Filmvorführung wurden zwei gleichartige Produkte angeboten, aber nur das eine war im Film beworben worden. Die Zuschauer strebten zielstrebig mit nach dem beworbenen Produkt. Seitdem ist diese sog. sublimale Werbung meines Wissens verboten.


kann selbst im blindtest zwischen 100 und 120 unterscheiden

Da stellt sich die Frage, ob ein Blindtest bei Dingen, die mit den Augen zu tun haben, wirklich sinnvoll ist...

Nein, im Ernst, wie und was testest Du da? Flimmer-Empfindlichkeit? Aufblitzen? Oder wirklich das, um was es hier geht, nämlich die Bewegungsauflösung? Was genau probierst Du durch? Wie läuft der Test ab?

Gruß,

Hagge


[Beitrag von hagge am 24. Jun 2010, 11:57 bearbeitet]
Sven.M
Ist häufiger hier
#63 erstellt: 25. Jun 2010, 23:54

hagge schrieb:
Hmm, da muss man aber wieder mal unterscheiden, was denn getestet wurde. Dass man einen Blitz z.B. wahrnehmen kann, der nur 1/10000s dauert, wo also theoretisch 10000 "Bilder" pro Sekunde belichtet werden könnten, ist klar. Somit kann man durchaus Dinge wahrnehmen, die nur kurz in einem Film aufblitzen.

Auf der anderen Seite gab es aber beispielsweise Tests, wo mitten in Spielfilmen einzelne Frames mit Werbung eingestreut wurden. Die Bilder wurden von niemandem bewusst bemerkt, aber dennoch hatten sie ihre Wirkung: nach der Filmvorführung wurden zwei gleichartige Produkte angeboten, aber nur das eine war im Film beworben worden. Die Zuschauer strebten zielstrebig mit nach dem beworbenen Produkt. Seitdem ist diese sog. sublimale Werbung meines Wissens verboten.

ka ich schaetze mal man hat mit digitalen anzeigeinstrumenten getestet
technisch ja kein problem

mit blitzen zu testen waere bloedsinn
aber das mit den "unterbewussten" bildern ist sehr praxisrelavant
das bedeutet schonmal es kam im gehirn and und wurde verarbeitet



hagge schrieb:

Da stellt sich die Frage, ob ein Blindtest bei Dingen, die mit den Augen zu tun haben, wirklich sinnvoll ist...

Nein, im Ernst, wie und was testest Du da? Flimmer-Empfindlichkeit? Aufblitzen? Oder wirklich das, um was es hier geht, nämlich die Bewegungsauflösung? Was genau probierst Du durch? Wie läuft der Test ab?

Gruß,

Hagge

getestet habe ich mit counter-strike spielen und autohotkey-script
das script schaltet runter auf 60hz und dann per zufall auf 100hz oder 120hz
vsync an, fps limit aus

da konnte ich (nach nen paar minuten uebung anfangs) problemlos zwischen beiden unterscheiden
kurz ein bißchen mit der mouse umschauen hat immer gereicht
120hz waren ein gutes stueck fluessiger

den jeweiligen wert ließ ich mir natuerlich immer erst nach meiner entscheidung anzeigen


[Beitrag von Sven.M am 26. Jun 2010, 00:03 bearbeitet]
Zweck0r
Moderator
#64 erstellt: 28. Jun 2010, 01:22

hagge schrieb:
Hast Du beispielsweise schon mal versucht, in der Nacht eine Taschenlampe oder eine Fackel im Kreis zu bewegen? Du siehst, wenn Du es schnell machst, einen Kreisbogen oder gar einen kompletten Kreis, nicht mehr nur einen sich kreisförmig bewegenden Punkt. Das Bild verschmiert also sehr wohl auch in der Realität. Bei Tag fällt es nur nicht so stark auf.


Das ist doch eher eine Art Nachleuchteffekt wie bei Bildröhren, der noch dazu nur bei wirklich extremen Kontrasten überhaupt auffällt. Mit dem Übereinandermatschen eines ganzen Zeitintervalls, wie es bei langer Belichtungszeit passiert, ist das nicht zu vergleichen.


hagge schrieb:
Es geht um Objekte, denen man mit dem Auge *nicht* folgt. Und die verschmieren auch in der Realität.


Ich gucke aber nicht starr auf einen Bildschirm oder eine Leinwand wie auf ein still stehendes Objekt, sondern ich fokussiere Objekte im Bild, die von Interesse sind. Dabei werden bewegte Objekte sogar automatisch bevorzugt, weil sich das in der Evolution als sinnvoll erwiesen hat (Feinde/Beute, und sogar noch heutzutage im Straßenverkehr). Und ich erwarte, dass sie dabei scharf und ruckelfrei bleiben.


hagge schrieb:
Nochmal: früher hatten die Filme aufgrund der schlechteren Aufnahmemöglichkeiten (weniger lichtempfindliches Materials, schlechtere Kameraoptiken, langsamere Kameraverschlüsse) alle viel längere Belichtungszeiten. Und da wurde nie über Ruckeln berichtet. Wenn man mal einen älteren Film im Kino anschaut, dann taucht dort auch heute kein Ruckeln auf, eben weil die Bilder Bewegungsunschärfe beinhalten.


Ist Metropolis alt genug ? Der ruckelt auch. Ob nun alte Kinofilme oder Zeitzeugenaufnahmen aus historischen Dokus, sie ruckeln alle und alle profitieren von einer Zwischenbildberechnung im Fernseher.

Lustiger Nebeneffekt übrigens: wenn durch die Zwischenbildberechnung das Ruckeln als dominierender Qualitätsmangel wegfällt, springen mir die komischen Farbtöne alter Farbfilme erst so richtig ins Auge, die mir vorher nie so bewußt aufgefallen sind.

Darauf, dass ich 100 und 120 fps auseinanderhalten kann, würde ich keine Wetten abschließen, aber bei 60 und 120 sofort. Normale TFTs mit 60 Hz und 60 fps mit Vsync sind bei Spielen wie Quake 3 so schlecht, dass ich das nicht lange durchhalte.

Grüße,

Zweck
hagge
Inventar
#65 erstellt: 28. Jun 2010, 09:43

Zweck0r schrieb:
Das ist doch eher eine Art Nachleuchteffekt wie bei Bildröhren, der noch dazu nur bei wirklich extremen Kontrasten überhaupt auffällt. Mit dem Übereinandermatschen eines ganzen Zeitintervalls, wie es bei langer Belichtungszeit passiert, ist das nicht zu vergleichen.

Wie kommst Du zu so einer Annahme? Warum soll das nur bei starken Kontrasten passieren? Was ist Nachleuchten anderes als ein verwischter Bildeindruck? Nein, nein, nein, das sind schon verschwommene Eindrücke im Auge.



hagge schrieb:
Es geht um Objekte, denen man mit dem Auge *nicht* folgt. Und die verschmieren auch in der Realität.


Ich gucke aber nicht starr auf einen Bildschirm oder eine Leinwand wie auf ein still stehendes Objekt, sondern ich fokussiere Objekte im Bild, die von Interesse sind. Dabei werden bewegte Objekte sogar automatisch bevorzugt, weil sich das in der Evolution als sinnvoll erwiesen hat (Feinde/Beute, und sogar noch heutzutage im Straßenverkehr). Und ich erwarte, dass sie dabei scharf und ruckelfrei bleiben.

Das ist ja alles völlig richtig. Und dennoch braucht das Auge immer einen kleinen Moment, bis es ein neu auftauchendes Objekt erfasst und sich dorthin bewegt hat. In dieser Zeit erscheint das bewegte Objekt unscharf. Es ist das Gehirn, das diese Unschärfe wieder wegrechnet. Und so kann das Gehirn auch den MotionBlur wieder wegrechnen. Es kann einfach mit dieser speziellen Art von Unschärfe umgehen, so dass man sie nicht mehr bewusst wahrnimmt. Das heißt die Schärfe ist jederzeit gegeben, ob mit MotionBlur oder ohne. Aber das "ruckelfrei" gilt nur dann, wenn die Bewegungsbahn halbwegs vollständig ist, also nur *mit* entsprechendem MotionBlur.


Ist Metropolis alt genug ? Der ruckelt auch. Ob nun alte Kinofilme oder Zeitzeugenaufnahmen aus historischen Dokus, sie ruckeln alle und alle profitieren von einer Zwischenbildberechnung im Fernseher.

Nun, ich dachte eher an Spielfilme aus der 60ern bis 80ern. Metropolis ist ja nun ein Film ganz aus der Anfangszeit des bewegten Bildes, da kann es ja auch wieder sein, das damals die ganzen Techniken noch nicht perfekt beherrscht wurden. Zudem ist Metropolis ein Film, der durch zig Aufpäppelungen gegangen ist, und da habe ich ja schon in meiner letzten Mail die Frage gestellt, ob dadurch nicht wieder MotionBlur entfernt wurde.

Hast Du mal den Test mit dem Standbild gemacht? Also gezielt mal Szenen mit MotionBlur und ohne MotionBlur verglichen?

Abgesehen davon kann ja ggf. auch der Fernseher noch ein Ruckeln reinbringen, wenn er die Darstellung z.B. von 24p nicht perfekt macht. Das war ja lange Zeit durchaus ein Thema bei den Fernsehern.


Lustiger Nebeneffekt übrigens: wenn durch die Zwischenbildberechnung das Ruckeln als dominierender Qualitätsmangel wegfällt, springen mir die komischen Farbtöne alter Farbfilme erst so richtig ins Auge, die mir vorher nie so bewußt aufgefallen sind.

Ja, man hatte früher recht grelle Farben an, damit der Kontrast besser war. Speziell bei Schwarzweiß-Filmen wurden Farbkombinationen gewählt, damit der Kontrast gut war, selbst wenn solche Farben in der Realität nie getragen wurden. In der Zwischenzeit wurden zudem einige dieser Schwarzweißfilme per Computer eingefärbt und auf einmal kommen diese grellen, übertriebenen Farben wieder zum Vorschein.


Darauf, dass ich 100 und 120 fps auseinanderhalten kann, würde ich keine Wetten abschließen, aber bei 60 und 120 sofort. Normale TFTs mit 60 Hz und 60 fps mit Vsync sind bei Spielen wie Quake 3 so schlecht, dass ich das nicht lange durchhalte.

Auch da sage ich gar nichts dagegen. Ich sage ja auch, dass mehr FPS durchaus von Vorteil wären. Aber auch dies ändert nichts an meiner Aussage. Wenn Du ein Spiel komplett ohne MotionBlur spielst, dann ist es doch genau meine Aussage, dass es dann ruckelt. Und dann können nur mehr FPS da was dran verbessern. Das heißt jedes Spiel, das nicht selbst einen MotionBlur einrechnet, kann allerhöchstens zur Untermauerung meiner These dienen, nie aber zu deren Widerlegung.

Aber nochmal: wenn der MotionBlur so unnötig wäre, warum rechnen die ganzen Trickfilm-Ersteller mit viel, viel Aufwand einen solchen in ihre Filme hinein? Das hat doch genau den Grund, weil eben schon sehr bald festgestellt wurde, dass es ohne den MotionBlur zu stark ruckelt.

Gruß,

Hagge
hagge
Inventar
#66 erstellt: 28. Jun 2010, 10:00

Sven.M schrieb:
mit blitzen zu testen waere bloedsinn
aber das mit den "unterbewussten" bildern ist sehr praxisrelavant
das bedeutet schonmal es kam im gehirn and und wurde verarbeitet

Das widerspricht ja auch nicht meiner Aussage. Im Gegenteil. Es zeigt, dass ein einzelnes Bild nicht mehr aufgelöst werden kann, sondern dass es in der allgemeinen Bewegung untergeht. Letztendlich wirkt ein komplett anderes, einzelnes Bild in einem Film wohl auch so wie ein Blitz. Das Bild blitzt kurz auf und wird somit maximal als Bildstörung vom Gehirn "weggerechnet". Wenn man es zuvor gesagt bekommt, kann man sich auf sowas möglicherweise konzentrieren, aber ansonsten wird man nicht bewusst den Inhalt erkennen. Ob man etwas unterbewusst wahrnimmt, spielt ja nicht wirklich eine Rolle, denn darauf kann man ja nicht direkt reagieren. Auch ein Pilot kann das nicht.


getestet habe ich mit counter-strike spielen und autohotkey-script
das script schaltet runter auf 60hz und dann per zufall auf 100hz oder 120hz
vsync an, fps limit aus

da konnte ich (nach nen paar minuten uebung anfangs) problemlos zwischen beiden unterscheiden
kurz ein bißchen mit der mouse umschauen hat immer gereicht
120hz waren ein gutes stueck fluessiger

Hmm, Du benutzt ein Spiel, das keinerlei MotionBlur hat, also bei Bewegungen nur völlig vereinzelte Bewegungsstationen darstellt. Du nimmst wahr, dass das Objekt springt. OK. Das ist aber doch genau das, was Du angezeigt bekommen hast. Du hast also nicht vereinzelte Bilder einer schnellen Bewegung gesehen, die Du noch einzeln wahrgenommen hast, sondern Du hast eine springendes Objekt gesehen, das Du springend wahrgenommen hast. Das sagt doch gar nichts über die zeitliche Auflösung Deiner Augen und Deines Gehirnes aus, sondern es sagt nur aus, dass Dein Gehirn springende Objekte auch als springend wahrnehmen kann.

Meine Aussage ist hingegen, dass ich behaupte, *wenn* das Spiel einen MotionBlur einrechnen würde, dass Du dann eben dieses Springen nicht mehr wahrnehmen würdest und keinen Unterschied zwischen den jeweiligen FPS mehr sehen würdest. Vorausgesetzt, die ganze Wiedergabekette stimmt. Das wären:

1. Das Spiel muss die FPS auch wirklich jederzeit einhalten können und nicht in Szenen mit viel Action auf einmal in der Framerate einbrechen oder auch nur leicht variieren. Sowas wäre als Testobjekt völlig ungeeignet, da man dann diese Verlangsamung sehen würde, nicht aber das Frameruckeln an sich.

2. Das Spiel muss mit dem Bild synchronisiert sein. D.h. es darf natürlich kein Tearing auftreten.

3. Der Bildschirm muss die Bildfrequenz auch korrekt anzeigen. Nicht dass der wieder irgendeine Umrechnung (z.B. einen n:n Pulldown) macht.

4. Der Bildschirm darf auch keine Effekte draufrechnen. Ein Fernseher, der z.B. aus 50Hz 100Hz macht, pfuscht ja auch wieder mit zusätzlichen Zwischenbildern ins Bild rein.

Du siehst, es gibt viele Punkte in der Wiedergabekette, die ggf. den Bildeindruck verfälschen können.

Gruß,

Hagge
Sven.M
Ist häufiger hier
#67 erstellt: 28. Jun 2010, 14:41
naja aber welches spiel hat schon gut implentierten motion blur
meines wissens nach kein einziges
und sag jetzt bitte nicht need for speed

bei filmen und serien sieht die situation auch nicht viel besser aus
bis auf eine ausnahme (der anime haruhi hat einen wirklich tollen 24fps effekt) fand ich noch kein 24fps material wirklich glatt
zumindest war alles kein vergleich zu echtem 30fps material

dass man mit tricks 60fps-spiele fluessiger wirken lassen kann bezweifel ich nicht
aber du kannst von passiven medien wie filmen nicht auf aktive steuerung wie bei spielen schließen
60fps koennen dort unter keinen umstaenden so gut wie 120fps sein
120fps sind einfach doppelt soviel echte bildinformationen bei halbierter verzoegerung
das kann man durch keine tricks ersetzen
und es ist auch ohne tricks sehr fluessig




nochmals zu der sache wieviel bilder das auge/gehirn wahrnehmen/verarbeiten kann:

die tage hab ich mal 150hz unter windows getestet (mehr kann mein crt nicht)
und obwohl ich nun schon seit jahren nicht mehr fuer geld spiele fand ich das deutlich fluessiger als 120hz
aber selbst die 150hz sind noch nicht wirklich optimal...

fuer mich steht fest dass ich fuer den perfekten bildgenuss ein 240hz geraet benoetigen wuerde
und ich habe absolut keine zweifel mehr daran dass fuer manche leute auch ein 480hz geraet sinnvoll waere

da aber selbst 120hz noch in weiter ferne sind wird man sowas wohl nur von leuten die elektrogeraete hacken kaufen koennen
mir solls recht sein solang es sich preislich im vierstelligem bereich bewegt
hagge
Inventar
#68 erstellt: 28. Jun 2010, 18:22

Sven.M schrieb:
naja aber welches spiel hat schon gut implentierten motion blur
meines wissens nach kein einziges
und sag jetzt bitte nicht need for speed ;)

Ich sag da gar kein Spiel, weil ich mich bei Computerspielen Null auskenne. Mir geht es ums Prinzip.

Also nochmal: die Aussage hier war, dass 24 fps für eine ruckelfreies Bild nicht ausreichen. Ich sage: doch, aber nur wenn der MotionBlur entsprechend da ist, sei es durch entsprechend lange Belichtung bei Filmen oder durch entsprechende Berechnung bei Computerspielen.

Dass das nun bei aktuellen Filmen und bei den aktuellen Spielen niemand richtig macht, ändert doch nichts an der Theorie.

Dass man mit mehr FPS natürlich auch in den Fällen ohne MotionBlur ein glatteres, ruckfreieres Bild hinkriegt, ist ja selbstverständlich. Denn dadurch rücken die Bewegungsstationen näher zusammen und die Bewegungsbahn hat nicht so große Lücken, so dass das Auge/Gehirn wieder leichter eine lückenlose Bewegung erkennt.

Dass Spiele selten MotionBlur machen liegt daran, dass man zwischen der Spielframerate, also der Framerate, die das Spiel aufgrund der Komplexität der Szene flüssig hinkriegt, und der Framerate des Bildschirms unterscheiden muss. Ideal wäre, wenn das Spiel immer die Bildrate des Monitors erreichen könnte *und* dafür dann noch MotionBlur berechnen könnte. Da das aber bei komplexen Spielen und halbwegs hohen Bildraten utopisch ist, haben die Spiele das MotionBlur in letzter Zeit wieder abgeschafft, da es bei falscher Monitorrate eher Ärger bereitet hat als Vorteile gebracht hat. Es ist auch u.U. leichter, eine doppelte Framerate ohne Motionblur zu generieren, als eine normale Framerate mit MotionBlur. Denn für den MotionBlur muss man eigentlich nochmals mehrere Spielsituationen berechnen. Diesen Aufwand steckt man lieber in "echte" Frames. Das sieht bei der FPS-Zahl dann besser aus. 90 fps im Benchmark ohne MotionBlur macht halt beim Normalo-User mehr Eindruck als 30 fps mit MotionBlur. Obwohl für den MotionBlur vielleicht intern 150 fps berechnet werden müssten, die Rechenleistung eines solchen Spiels also effektiv tatsächlich höher wäre.


dass man mit tricks 60fps-spiele fluessiger wirken lassen kann bezweifel ich nicht
aber du kannst von passiven medien wie filmen nicht auf aktive steuerung wie bei spielen schließen
60fps koennen dort unter keinen umstaenden so gut wie 120fps sein
120fps sind einfach doppelt soviel echte bildinformationen bei halbierter verzoegerung
das kann man durch keine tricks ersetzen

Eben nicht. Eine lange Belichtungszeit mit echtem Motionblur ist viel viel mehr Information als jede Anzahl von "nur" scharfen Zuständen.

Wobei ich Dir recht gebe, dass in einem Spiel der Motionblur auch nur wieder durch neue Spielzustände erzeugt würde. Insofern trägt dort der Motionblur evtl. tatsächlich nicht mehr Information als wenn man diese Spielzustände als eigene Frames ausgibt.


die tage hab ich mal 150hz unter windows getestet (mehr kann mein crt nicht)
und obwohl ich nun schon seit jahren nicht mehr fuer geld spiele fand ich das deutlich fluessiger als 120hz
aber selbst die 150hz sind noch nicht wirklich optimal...

fuer mich steht fest dass ich fuer den perfekten bildgenuss ein 240hz geraet benoetigen wuerde
und ich habe absolut keine zweifel mehr daran dass fuer manche leute auch ein 480hz geraet sinnvoll waere

Bei dieser ganzen Darstellung mit so vielen FPS frage ich mich, ob nicht doch irgendwo noch ein Gerät in der Bildwiedergabekette das Ruckeln verursacht.

Aber mal ehrlich gesagt macht es doch nicht wirklich Sinn, Filme mit 240fps aufzunehmen. Da müsste doch was falsch sein, wenn es so hohe Bildraten bräuchte, um flüssige Abfolgen zu erhalten. Also das *kann* nun einfach nicht mehr sein.

Gruß,

Hagge
pZombie
Neuling
#69 erstellt: 13. Aug 2010, 13:05
Nehmen wir an uns würde es gelingen ein schnelles Plasma- Panel aus einem Panasonic zu entfernen, ohne es zu beschädigen.

Ich nehme mal an, dass ein solches Panel 500hz oder mehr schaffen könnte wenn man diese zuspielen würde.

Jetzt bräuchten wir eine Schnittstelle zwischen Grafikkarte des PCs und dem Input dieses Panels.

Schön wäre es, wenn diese Schnittstelle so wenig wie möglich zwischenspeichern würde, und das Signal der Grafikkarte auf dem schnellsten Weg dem Plasma- Panel zuführen würde.


Also, ohne jetzt genau zu wissen wie das funktioniert, nehme ich einfach mal an, dass das Plasma- Panel so eingestellt ist, dass es die digitalen Bilddaten aus einem bestimmten Speicher entweder selbst aktiv ausliest oder ihm die Daten passiv durch einen Chip der den Speicher mit den digitalen Bilddaten ausliest zugespielt werden.

(Im Prinzip ist das ja dasselbe nur anders ausgedrückt. Ob nun der Chip der die digitalen Bilddaten aus dem Speicher ausliest mit auf dem Panel ist oder separat ist, ist ja eigentlich dasselbe, denke ich mal so)



So... wir haben also das Panel, einen Speicher der groß genug ist um 1080p aufnehmen kann, und einen Chip der diesen Speicher auf das Plasma- Panel übertragen kann.

Noch besser, wäre es, wenn dieser Chip die Daten direkt und ohne Zwischenspeicherung von der Grafikkarte, direkt auf das Panel übertragen würde. Also direkt aus dem Grafikkartenspeicher. Das spart kosten, weil kein extra Speicher nötig, und schont die Umwelt!!!


Dann brauchen wir noch jemanden der mehr versteht von dieser Materie, und der so etwas zusammenbauen könnte in einer netten kleinen Box die man nach aufschrauben des Panels direkt an das Panel Interface anschließen könnte.

Diese Box müsste natürlich auch ein "pass through" modus haben, wenn man den Plasma als TV nutzen möchte und nicht als 500hz Monitor.


Erschwerend hinzu kommen, könnte, dass unser liebe Industrie, die uns zu Konsum- Sklaven degradieren möchte, ein paar nette passive Verschlüsselungen eingebaut hat, bzw die Grafikkarte erst-mal einen bestimmten Entschlüsselungs- Code erwartet, damit diese überhaupt etwas ausgibt. Da müsste man mit original Bauteilen wohl etwas tricksen um diese dazu zu bewegen etwas zu senden was man dann abfangen kann.
Blöd wäre natürlich, wenn das gesendete Signal auch verschlüsselt wäre und man da auch tricksen müsste.


Also, gar-nicht mal so schwer das ganze eigentlich, mit dem nötigen know-how.


Natürlich könnte ich auch komplett falsch liegen, und die Industrie hat es einfach versäumt daran zu denken was wir eigentlich konsumieren wollen.
Die sind bestimmt alle geistig behindert und produzieren diese Hightech Elektronik nur rein zufällig. Da musste wohl erst ich kommen um denen zu Zeigen wie das geht.. jajaja




mit freundlichen Grüßen,

der pleite Grieche


[Beitrag von pZombie am 13. Aug 2010, 15:32 bearbeitet]
hagge
Inventar
#70 erstellt: 16. Aug 2010, 12:53

pZombie schrieb:
Ich nehme mal an, dass ein solches Panel 500hz oder mehr schaffen könnte wenn man diese zuspielen würde.

Siehst Du, und schon bist Du der Werbung auf den Leim gegangen. Ein solches Plasma-Panel kann nämlich gar nicht 500 verschiedene Bilder pro Sekunde zeigen, sondern das Plasma wird bis zu 500 mal pro Sekunde gezündet. Das ist was komplett anderes. Denn wenn die Farbe sehr dunkel ist, wird das Plasma wesentlich seltener gezündet als wenn die Farbe hell ist. Das Mehrfachzünden bringt am Ende nur Helligkeit. Innerhalb des Bildes kann es also gut sein, dass ein paar Plasmazellen 500x pro Sekunde gezündet werden, und andere Zellen nur 300x oder gar nur 100x oder auch gar nicht (wenn die Zelle schwarz bleiben muss).

Grundsätzlich zeigt der Plasma-Bildschirm aber nach wie vor nur 50 FPS. Denn alles, was er mehr an Bildern zeigen wollte, müsste er ja in Form von Zwischenbildern berechnen. Und genau das wollen die Plasma-Anhänger ja nicht haben, weil mit den Zwischenbildern auch der Soap-Effekt kommt.

Wobei es lustigerweise in der Zwischenzeit tatsächlich solche Plasma-Fernseher gibt, die Zwischenbilder berechnen und darum Soap-Effekt zeigen. Denn mit genau dieser Mehrfachzündung erzeugt man nun auch einen mehrfachen Bildeindruck im Auge, der eben nicht mehr an einer Stelle ist, wenn sich das Auge bewegt, z.B. weil es bewegten Objekten im Bild folgt. Die Folge ist, dass diese Plasmas dann einen ähnlichen Unschärfeeffekt hervorrufen wie die LCDs und prompt versucht man auch mit gleichen Wegen, diese Probleme anzugehen, nämlich mit Zwischenbildern.

Der tolle 500Hz-Werbespruch sagt also in der Praxis folgendes aus:

- Das Bild flimmert weniger (da tatsächlich mehr als 50Hz zum Einsatz kommen)
- Das Bild kann heller werden (da das Plasma öfter gezündet wird)
- Das Bild enthält Bewegungsunschärfe!!!

Aus einem 500Hz-Plasma-Panel einen PC-Monitor für 500 Bilder pro Sekunde zu machen, ist also unmöglich. Die schnellsten Panel, was FPS angeht, sind momentan die 200Hz-LCD-Panel. (Auch da ist die Werbung mit 400Hz gelogen, da die trotzdem nur 200 verschiedene Bilder anzeigen können.) Alle Plasmas sind nach wie vor bei 50 FPS (außer den ganz wenigen neuen, die Zwischenbilder erzeugen und damit Soap-Effekt haben).

Gruß,

Hagge
pZombie
Neuling
#71 erstellt: 16. Aug 2010, 21:27
Ich hab mir SCHON gedacht dass wenn die 500 oder 600hz angeben, dass die Plasmas diese auch intern schaffen können, bzw. man nun schnellere Leuchtstoffe zur Verfügung hat die im Millisekunden (1-2ms) Bereich abklingen.
Sollte das nicht der Fall sein, und die Leuchtstoffe benötigen immer noch um die 10ms zum abklingen im schlimmsten Fall, dann wird das wohl nichts mit dem 500hz Plasma.

Hier wären Informationen zu den Spezifikationen des Leuchtstoffes welcher in den neusten Plasma Geräten zum Einsatz kommt hilfreich. Besonders die Abklingzeiten.


Allerdings gibt es ja mittlerweile auch "echte" 3D 100/120hz Geräte, die auch tatsächlich 120hz or 100hz schaffen sollten, denn sonnst würden die Shutterbrillen nicht richtig funktionieren.

Warum erlaubt man hier nicht die Zuspielung von 120hz direkt vom PC?
Das wäre doch prima Werbung...

Warum keine 200hz auf die genannten LCD TVs.

Warum wird das Signal kommend von der PC Grafikkarte erst zwischengespeichert, dann mit filtern bombardiert und erst später an das Panel gesandt. Warum nicht direkt auf das Panel 1:1 ohne verzögerung?

Wieso ist bei manchen Geräten die eine physikalische Auflösung von 1920x1080 schaffen, es nicht möglich diese per PC 1:1 anzusprechen?
Das wäre doch das Nächstliegendste.


Es kann doch nicht sein, dass wenn ein neuer LCD auf den Markt kommt, die Foren voller Leute sind die versuchen herauszufinden welcher TV kein Input Lag hat.

Lustig zu sehen wie manche Hersteller einen TV produzieren, welcher einen vergleichsweise geringen Input Lag hat, das aber nicht in den Spezifikationen angibt OBWOHL es ein Kaufgrund wäre für eine große Zahl der potentiellen Käufer.

Als ob man gar nicht darauf aus wäre zu verkaufen, oder es der scheinbaren? Konkurrenz einfacher machen wollte.

Es sind diese Ungereimtheiten die ich nicht verstehe.

Da baut Sony Geräte mit einem vergleichsweise geringem Input Lag von ca 20ms, um dann in der nächsten Generation ein Gerät mit 60ms zu produzieren, im game mode.
Was denken sich die Hersteller dabei?


Auch wenn ich beim Plasma eventuell falsch lag, so ging es um mehr in meinem Text.

Wie wäre es mit einem 200hz LCD TV, welcher die Zuspielung vom PC mit 200hz erlaubt und welcher das Signal vom der Grafikkarte aus dem GPU speicher, direkt auf das Panel 1:1 überträgt.
Eigentlich der EINFACHSTE weg.

Aber man entscheidet sich das Signal erst zwischenzuspeichern, um es dann mit ein paar Bild-Verschlechterungs Filtern schön unscharf zu machen und noch obendrauf einen Input Lag einzubauen, um es dann endlich auf das Panel zu schicken.
Also schön kompliziert und aufwändig, und im Ergebnis VIEL schlechter.

unnötiges Zitat entfernt


[Beitrag von hgdo am 17. Aug 2010, 00:03 bearbeitet]
hagge
Inventar
#72 erstellt: 17. Aug 2010, 22:35

pZombie schrieb:
Ich hab mir SCHON gedacht dass wenn die 500 oder 600hz angeben, dass die Plasmas diese auch intern schaffen können, bzw. man nun schnellere Leuchtstoffe zur Verfügung hat die im Millisekunden (1-2ms) Bereich abklingen.

Nun, ein Plasma-Pixel kann nur sehr schwer in der Helligkeit geregelt werden. Darum nutzt man ein pulsendes Verfahren für die Helligkeitssteuerung, ähnlich einer Pulsweitenmodulation (PWM). Man schaltet das Pixel also immer wieder neu an. Je öfter pro Zeiteinheit das Pixel gezündet wird, desto heller erscheint dem Auge die Farbe. Je seltener man das Pixel zündet, desto mehr Dunkelanteil ergibt sich und desto dunkler erscheint die Pixelfarbe. Der Extremfall ist dann, wenn das Pixel gar nicht mehr gezündet wird, dann ist es komplett schwarz.

Die Plasmas mit den schnelleren Zündfolgen haben durchaus schnellere Leuchtstoffe, aber man darf dennoch nicht jedes Zünden gleichsetzen mit einem möglichen Frame, denn wie gesagt bedarf es einfach gewisser zeitlicher Anteile von hell und dunkel, um die Farbe des Pixels einzustellen. Um also beispielsweise 256 Helligkeitsstufen darzustellen, braucht es schon eine Reihe von Zündvorgängen. Darum wird man mit einem 600Hz-Gerät trotz allem nie möglich sein, 600FPS anzuzeigen.


Warum erlaubt man hier nicht die Zuspielung von 120hz direkt vom PC?

Tja, ich kann es dir nicht genau sagen. Vermutlich weil diese Geräte in erster Linie eben doch Fernseher sind und die Bildverarbeitung eben nicht für 100Hz Eingangssignale ausgelegt ist.

Letztendlich ist ein Display auch auf eine gewisse Frequenz dimensioniert. So wird ein 200Hz-fähiges Display aufgrund entsprechender interner Kapazitäten wohl auch irgendwo im Umfeld von 200Hz betrieben werden müssen. Das heißt Eingangssignale von 50Hz (oder gar 24Hz) müssen dann entsprechend hochgerechnet werden, dass auch deren Bildanzeige dann mit ca. 200Hz läuft, also z.B. durch Zwischenbildberechnung oder einen n:n Pulldown.

Möglicherweise ist dann eben diese Bildverarbeitungskette zu stark in der Hardware verankert, als dass man da noch so flexibel auf die Eingangssignale reagieren kann. Die Geräte müssen heute ja schon mit einer sehr großen Vielzahl an Signalen zurecht kommen: 24Hz (BD), 25Hz (in Form von Filmen mit PAL-Speedup, gesendet als 50i), 30Hz (NTSC-Signale), 50Hz (PAL-Halbbilder), 60Hz (NTSC-Halbbilder), dann 50Hz und 60Hz mit Vollbildern (z.B. 720p50), neuerdings noch 3D-Formate. Das ist schon eine ganze Menge. Dazu die ganzen Pixelauflösungen. Hier auch noch jede Menge weitere PC-Signale zu akzeptieren, das ist wohl einfach momentan zu viel. Das heißt aber nicht, dass es sowas in Zukunft nicht vielleicht doch geben könnte. Man darf auch nicht vergessen, dass die ganzen neuen Bildformate noch gar nicht so alt sind. Vielleicht wollen die Hersteller erst mal diese ganzen TV-Signale richtig in den Griff kriegen, bevor sie sich mit den PC-Signalen nochmal neue Probleme ins Haus holen.


Wieso ist bei manchen Geräten die eine physikalische Auflösung von 1920x1080 schaffen, es nicht möglich diese per PC 1:1 anzusprechen?

Also das ist doch heute durchweg möglich. Das ist eigentlich kein Argument mehr. Dass man früher einen Overscan draufgerechnet hat, lag daran, dass die ganzen analogen Quellen diesen tatsächlich teilweise brauchten, um gewisse Störungen aus dem Bild zu schieben, z.B. das Rauschen oben und unten am Bild, das bei Videorekordern beim Umschalten der Videoköpfe entstand. Erst seit es überwiegend digitale Quellen gibt, wird es zunehmend immer sinnvoller, ohne Overscan zu arbeiten. Klar, für PC-Signale war der Overscan alles andere als geeignet, aber die Fernseherabteilung und die PC-Monitorabteilung waren in den Firmen früher komplett eigenständig und das jeweilige fremde Medium funktionierte dann nur unbefriedigend. Erst in den letzten zwei, drei Jahren wurde das besser und die Fernseher kamen endlich ordentlich mit dem PC-Signal zurecht und umgekehrt.

Insofern sind manche Unzulänglichkeiten einfach historisch bedingt und die Hersteller müssen tatsächlich auch erst mal lernen, mit den Signalen korrekt umzugehen.


Lustig zu sehen wie manche Hersteller einen TV produzieren, welcher einen vergleichsweise geringen Input Lag hat, das aber nicht in den Spezifikationen angibt OBWOHL es ein Kaufgrund wäre für eine große Zahl der potentiellen Käufer.

Weil es fast immer so ist, dass die Marketingabteilung die Technik sowieso nicht oder nur unzureichend versteht und darum gar nicht immer weiß, was den Kunden interessiert.


Es sind diese Ungereimtheiten die ich nicht verstehe.

Sehe ich ähnlich, ich kann es manchmal auch nicht nachvollziehen.


Da baut Sony Geräte mit einem vergleichsweise geringem Input Lag von ca 20ms, um dann in der nächsten Generation ein Gerät mit 60ms zu produzieren, im game mode.
Was denken sich die Hersteller dabei?

Nun, das wiederum lässt sich erklären. Es ist einfach die Funktionsweise der Engine. In der Bravia-Engine 2 (BE2) wurde das Signal üblicherweise in ein 10-bit-Signal umgesetzt und auf einem 10-bit-Panel ausgegeben. Die BE3 nutzt hingegen ein sog. FRC-Verfahren (Frame Rate Control), bei dem die Pixel (lustigerweise ähnlich einem Plasma) zwischen den angrenzenden Farben hin und her wackeln und so für das Auge sehr feine Farbzwischenstufen ergeben. Also weit mehr Abstufungen, als das Panel bei ruhig stehenden Flüssigkristallen darstellen könnte. Darum reicht hier i.a. ein 8-Bit-Panel aus, weil sich durch diese Flickertechnik auch damit weit mehr als 256 Farbabstufungen darstellen lassen. Aber dafür muss halt mehrmals mit dem Pixel gewackelt werden und es muss mehr im Vorfeld berechnet werden, um diese Technik einsetzen zu können. Ergo ist die Input-Lag-Zeit größer. Letztendlich ist das schon positiv, bessere Bildqualität (mehr Farbstufen) bei niedrigerem Preis (8-Bit-Panel), aber eben auf Kosten des Input-Lags.


Wie wäre es mit einem 200hz LCD TV, welcher die Zuspielung vom PC mit 200hz erlaubt und welcher das Signal vom der Grafikkarte aus dem GPU speicher, direkt auf das Panel 1:1 überträgt.
Eigentlich der EINFACHSTE weg.

Wie gesagt, eigentlich spricht nichts dagegen. Es ist wohl noch eine Frage der Zeit. Der einfachste Weg ist es aber von der technischen Realisierung her nicht. Denn die "langsamen" Signale muss ein solches Gerät ja nach wie vor noch können. Also ist das schnelle 200Hz-Signal eine zusätzliche Aufgabe, die auch zusätzlich implementiert werden muss, also teurer ist. Es ist also *nicht* der einfachste Weg. So einen Weg kann man nur dann gehen, wenn es ein reiner PC-Monitor ist, der die ganzen anderen Fernsehnormen nicht können muss. Und dort geht es durchaus schon in diese Richtung, also 100Hz und mehr.

Wobei ganz nebenbei bemerkt auch erst mal die Grafikkarte und der PC so leistungsfähig sein müssen, dass überhaupt solche Frameraten bis 200FPS erzeugt werden können. Für Spiele ist das ja nicht ganz so einfach, zumindest wenn das Spiel grafisch etwas anspruchsvoller oder gar 3D ist. Das ruhende Bild mit 200Hz anzuzeigen, bringt nämlich rein gar nichts. Die Vorteile der besseren Bilddarstellung bringt nur dann was, wenn auch wirklich die Bewegungen mit 200FPS erzeugt würden.


Aber man entscheidet sich das Signal erst zwischenzuspeichern, um es dann mit ein paar Bild-Verschlechterungs Filtern schön unscharf zu machen und noch obendrauf einen Input Lag einzubauen, um es dann endlich auf das Panel zu schicken.

Nun, diese Dinge sind eben notwendig, um das reguläre Fernsehsignal in möglichst guter Qualität anzuzeigen. Denn diese Signale sind wegen ihrer Historie nicht so schön einfach aufgebaut wie das PC-Signal. Man denke nur an die ganzen interlaceten Signale. Das heißt man hat eben eine aufwendige Bildberechnung und die fordert eben ihren Zoll beim Input-Lag. Freiwillig oder gar nicht Absicht baut kein Hersteller einen Lag ein, der kommt immer unfreiwillig. Und ja, die preiswertere Hardware kann durchaus Schuld sein, wenn höhere Input-Lags herauskommen.

Gruß,

Hagge
pZombie
Neuling
#73 erstellt: 19. Aug 2010, 01:53

Weil es fast immer so ist, dass die Marketingabteilung die Technik sowieso nicht oder nur unzureichend versteht und darum gar nicht immer weiß, was den Kunden interessiert.


Dein wissen was Technik angeht ist hoch, jedoch ebenso deine Blauäugigkeit was Hersteller angeht.

Da geben Sony und andere namhafte Hersteller Millionen aus, um herauszufinden was Kunden zum kaufen anregt, und du behauptest einfach mal so eben, dass sie keine Ahnung von den 3219848321948141092830912878788 threads in denen es darum geht herauszufinden was der input lag bei bestimmten Geräten ist.


Da wird Hardware mit voller Absicht durch Firmware kastriert, was fast schon kriminell ist, weil da Ressourcen unseres Planeten verschwendet werden für Produkte, die produziert werden, um dann nur die Hälfte ihres Potentials zu nutzen.

Man baut ein Zweistöckiges Haus, um dann die 2te Etage abzureisen, um es billiger verkaufen zu können?
Das geht nur wenn ich der einzige Hausbauer wäre, denn sonnst würde die Konkurrenz mich vernichten!

Siehe gtx 465 als jüngstes Beispiel. Mit einem einfachen Firmware Upgrade, hat man genau wie die gtx 470 448 shader.
Die gtx 470 hat genauso viele shader wie eine gtx 480, die aber einfach eben mal abgeschaltet wurden (hier aber physikalisch angeblich um ein firmware upgrade zu verhindern).
Man behauptet zwar dass dies nur deshalb so sei, weil die shader kaputt wären, was in manchen Fällen vieleicht auch stimmt, aber in 99% der gtx 465 karten eben nicht.


Lustig ist auch die Behauptung von Ati und Nvidia dass windows7 nun einen neuen WDM hat, welcher horizontal spanning (dual view ist was ähnliches) nicht mehr erlaubt.
Das erscheint dem normalo Konsumenten erst einmal plausibel.
Wenn man dann aber etwas weiter nachdenkt erkennt man schon, dass das nicht ganz die Wahrheit sein kann.

Die Nvidia oder Ati Karte liegen ja zwischen dem Betriebssystem und den Monitoren.
Alles was Nvidia oder Ati tuen müsste, wäre dem Betriebssystem via Treibern anzugeben, dass es einen großen Monitor mit 3200x1200 anspricht, statt zwei 1600x1200 Monitoren. (also dem Betriebssystem was vorlügen)

Das Betriebssystem in seiner Unwissenheit, würde dem Nvidia Treiber/Grafikkarte dann eben ein 3200x1200 Signal zuspielen.
Der Treiber müsste dann nur noch das Signal auf die 2 Monitore verteilen, also jeweils 1600x1200 für jeden.

Klingt einfach oder? Ist es aber auch! Und trotzdem hat es weder Ati noch Nvidia angeblich geschafft das zu implementieren für die alten Grafikkarten wie 8800gt oder 3870 in windows7.

Das Interessante dabei ist, dass die Hersteller das alles synchron durchziehen. Ati kommt dann mit eyefinity, und Nvidia halt mit 3d vision surround in den neuen Modellen.

Alle diese Ungereimtheiten lassen nur einen Schluss zu, dass es keine echte Konkurrenz gibt bei der Hightech Industrie. Die Drahtzieher sind immer dieselben.
Man lässt halt schon mal eine Firma pleite gehen, weil das ja auch sehr viele Probleme löst, um dann eine neue aufzuziehen, mit den gleichen Drahtziehern.

Den Preis dafür zahlt unsere Umwelt, und wir.

Ich könnte das zwar jetzt noch weiter ausführen, und weitere Beispiele aufzeigen wo Hardware vollen Wissens kastriert wird, sogar wenn es Mehrkosten verursacht, aber es ist ja leider am Thema vorbei. Trotzdem fand ich es wichtig auf deine Auslegung zu antworten.

Gruß,

der pleite Grieche


[Beitrag von pZombie am 19. Aug 2010, 01:58 bearbeitet]
hagge
Inventar
#74 erstellt: 19. Aug 2010, 09:54

Dein wissen was Technik angeht ist hoch, jedoch ebenso deine Blauäugigkeit was Hersteller angeht.

Da geben Sony und andere namhafte Hersteller Millionen aus, um herauszufinden was Kunden zum kaufen anregt, und du behauptest einfach mal so eben, dass sie keine Ahnung von den 3219848321948141092830912878788 threads in denen es darum geht herauszufinden was der input lag bei bestimmten Geräten ist.

Du musst meine Beiträge aufmerksamer lesen. Ich habe nicht gesagt, dass Sony nicht weiß, was die Kunden wollen, sondern ich habe gesagt, dass die Marketingleute, also die Leute, die die Werbung und Prospekte erstellen, die Technik der eigenen Geräte nicht verstehen und darum wichtige Informationen weglassen oder falsch erklären. Diese Marketingleute sind keine Techniker, das sind Grafiker und Werbetexter, die verstehen das Zeug wirklich nicht. Oder es sind Vertriebsleute, die auch einem Eskimo noch einen Kühlschrank andrehen wollen, denen es also wichtig ist, dass ihre Fragen und Argumente abgedeckt sind. Sobald es dann aber zu tief in die Technik geht, sind die dann auch wieder ahnungslos. Das sind aber die Leute, die mit den Kunden in Kontakt kommen und somit die Wünsche entgegennehmen. Nur sie verstehen diese Wünsche dann oft gar nicht.

Und das wiederum war die Antwort auf Deine Frage, warum so wichtige Informationen wie der Input-Lag oder die Abklingzeit von Leuchtstoffen nicht in den technischen Daten angegeben sind oder unter so geringer Priorität laufen.


Da wird Hardware mit voller Absicht durch Firmware kastriert, was fast schon kriminell ist, weil da Ressourcen unseres Planeten verschwendet werden für Produkte, die produziert werden, um dann nur die Hälfte ihres Potentials zu nutzen.

Jein. Gerade Dein Beispiel mit den NVidia-Grafikkarten, bei denen sich die restlichen Shader freischalten lassen, ist ein gutes Beispiel. NVidia stellt tatsächlich nur einen Typ Grafikchip her. Aber bei der hohen Logikdichte (mehrere Milliarden Transistoren und Gatter) und bei den kleinen Strukturen von 40nm ist die Chance, dass ein paar Elementgruppen nicht funktionieren, sehr hoch. Verschwendung wäre jetzt, diese sowieso produzierten Grafikchips wegzuwerfen. Das machen die Firmen aber gar nicht, sondern sie deaktivieren nur die defekten Abteilungen und verkaufen den Chip dann unter einer anderen Produktnummer mit weniger Leistungsfähigkeit. Es ist also gerade *keine* Ressourcenverschwendung. Man steigert auf diese Weise die Ausbeute der Chipherstellung.


Siehe gtx 465 als jüngstes Beispiel. Mit einem einfachen Firmware Upgrade, hat man genau wie die gtx 470 448 shader.
Die gtx 470 hat genauso viele shader wie eine gtx 480, die aber einfach eben mal abgeschaltet wurden (hier aber physikalisch angeblich um ein firmware upgrade zu verhindern).
Man behauptet zwar dass dies nur deshalb so sei, weil die shader kaputt wären, was in manchen Fällen vieleicht auch stimmt, aber in 99% der gtx 465 karten eben nicht.

Woher willst Du das wissen? Nur weil ein Fehler nicht völlig offensichtlich ist, heißt das doch noch lange nicht, dass kein Fehler existiert.

Ich denke diese Shader haben tatsächlich bei den abschließenden Tests Fehler hervorgerufen und sind darum deaktiviert worden. Ob dem Endnutzer hingegen ein paar falsche Pixel in einem sich sowieso sehr schnell ändernden Bild auffallen oder stören, ist dann eine andere Frage. Das heißt wenn man solche Shader wieder reaktiviert, mag das durchaus ein akzeptables Ergebnis für die Grafik liefern. Diese Fehler fallen also nicht ins Gewicht.

Anders sieht es aus, wenn diese Shader für andere Berechnungen verwendet werden, also für Berechnungen, die die CPU unterstützen. Wenn hier nun Fehler auftauchen und, mal grob gesprochen, die Buchhaltung irgendwann nicht mehr stimmt, dann sind diese Folgen schon weit gravierender und eben nicht mehr so ohne weiteres zu tolerieren. Das gleiche gilt z.B., wenn man bei CPUs still gelegte Kerne wieder aktiviert. So waren lange Zeit alle AMD Phenoms mit vier Kernen produziert worden, aber durchaus auch als 3-Kern- oder 2-Kern-Phenom verkauft worden. Aber nicht aus Schikane, sondern weil die Kerne Defekte aufwiesen. Solche Fehler müssen aber gar nicht so offensichtlich sein. Wenn eben immer nur dann ein Fehler auftritt, wenn einer der Operanden 127 ist, dann mag das trotzdem in 99,99999% der Fälle das richtige Ergebnis liefern. Aber dennoch sind 0,00001% der Berechnungen falsch. Das muss man aber erst mal merken. Das heißt jemand der so einen Kern freischaltet, kann sich auf seine Rechenergebnisse nicht mehr verlassen. Oder der Rechner schmiert eben alle paar Stunden mal ab, was dann aber vielleicht gar nicht auf den Prozessor geschoben wird, sondern auf die sowieso klapprige Software.

Solange das ein Spiele-PC ist, spielt das vermutlich keine nennenswerte Rolle. Aber wenn das ein PC ist, auf dem auch ernsthafte Dinge passieren, dann reicht ein solcher Rechenfehler, um möglicherweise fatale Folgen auszulösen. Das kann sich eine Firma wie NVidia gar nicht erlauben. Das finanzielle Risiko wäre unabschätzbar.

Also: nur weil nach dem Freischalten solcher Shader das Ergebnis brauchbar aussieht, muss es noch lange nicht fehlerfrei sein. Es reicht ja, wenn dann das Produkt nicht mehr so zuverlässig läuft, also z.B. zu heiß wird oder sonstwie Mucken macht.


Alles was Nvidia oder Ati tuen müsste, wäre dem Betriebssystem via Treibern anzugeben, dass es einen großen Monitor mit 3200x1200 anspricht, statt zwei 1600x1200 Monitoren. (also dem Betriebssystem was vorlügen)

Nun, man möchte seine Monitore aber vielleicht gar nicht nebeneinander anordnen, sondern untereinander. Speziell wenn man mehrere Monitore angeschlossen hat. Sowas wäre dann nicht mehr möglich. Insofern ist Deine "Lösung" eben auch nicht optimal.

Nein, ich sehe hier auch nicht ATI oder NVidia in der Pflicht, sondern Microsoft.


Das Interessante dabei ist, dass die Hersteller das alles synchron durchziehen. Ati kommt dann mit eyefinity, und Nvidia halt mit 3d vision surround in den neuen Modellen.

Wie gesagt, es muss derjenige die Änderung machen, der den Fehler verbockt hat. Und wenn Microsoft in Windows 7 etwas geblockt hat, dann ist das nicht Aufgabe von ATI oder NVidia, das auszubügeln. Vielmehr sollten die Kunden zu Microsoft gehen und mal kräftig meckern.


Alle diese Ungereimtheiten lassen nur einen Schluss zu, dass es keine echte Konkurrenz gibt bei der Hightech Industrie. Die Drahtzieher sind immer dieselben.

Hier wiederum stimme ich Dir voll und ganz zu.

Gruß,

Hagge


[Beitrag von hagge am 19. Aug 2010, 10:00 bearbeitet]
Suche:
Gehe zu Seite: |vorherige| Erste Letzte
Das könnte Dich auch interessieren:
120hz fernseher
Urwaldjunk am 13.03.2008  –  Letzte Antwort am 23.03.2008  –  10 Beiträge
1080i und 100/120HZ
Tommyfare am 05.09.2007  –  Letzte Antwort am 06.09.2007  –  2 Beiträge
24p Modus bei 120hz Monitor
Dentho am 10.05.2013  –  Letzte Antwort am 11.05.2013  –  3 Beiträge
3d fernseher mit 100/120hz über pc ansteuerbar ?
thomaz am 23.01.2011  –  Letzte Antwort am 01.02.2011  –  5 Beiträge
Neue günstige JVC 120Hz LCD´s!
celle am 29.01.2007  –  Letzte Antwort am 22.02.2007  –  12 Beiträge
Fernseher mit hohen (nativen) Hz geeignet für Videospiele? (Quervergleich Gaming-Monitor mit >120Hz)
p4z1f1st am 11.09.2018  –  Letzte Antwort am 11.09.2018  –  3 Beiträge
Wandhalterung großer Ausleger gesucht.
Mattn111 am 30.04.2014  –  Letzte Antwort am 05.05.2014  –  5 Beiträge
AEG CTV 4932 - Lautsprecher gesucht
newbieman1 am 13.02.2010  –  Letzte Antwort am 21.02.2010  –  2 Beiträge
Zukunftssicherer 32er LCD gesucht
MichaelKah am 05.10.2004  –  Letzte Antwort am 06.10.2004  –  4 Beiträge
Sehr flacher 32" LCD gesucht
miwi01 am 06.11.2006  –  Letzte Antwort am 13.11.2006  –  7 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.708 ( Heute: 11 )
  • Neuestes Mitgliedgune
  • Gesamtzahl an Themen1.551.048
  • Gesamtzahl an Beiträgen21.536.764

Hersteller in diesem Thread Widget schließen