Gehe zu Seite: Erste 2 3 4 Letzte |nächste|

Auswirkungen der Skalierung von Filmen mit Full-HD/UHD-Auflösung auf 2K/4K-TV-Geräten

+A -A
Autor
Beitrag
Skarpin
Inventar
#1 erstellt: 04. Jun 2014, 16:27
Ein natives Bild wird immer besser als ein Skaliertes Bild sein.Egal was für Komponenten da eingebaut werden.Und da die Unterschiede zwischen 2k und 4k sich in Grenzen halten braucht man sich darüber keine großen Hoffnungen machen.


[Beitrag von Skarpin am 04. Jun 2014, 16:29 bearbeitet]
George_Lucas
Inventar
#2 erstellt: 04. Jun 2014, 16:27

Skarpin (Beitrag #7095) schrieb:

Und warum sollte ein 4k TV ein besseres Bild abliefern als ein 2k TV, bei einem nicht nativen 4k Bild?

Man muss sich von der Vorstellung verabschieden, dass Filme 1:1 (z. B. von einem Datenträger) auf einem TV-Gerät dargestellt werden. Es kommt hierbei immer zu "Rundungsfehlern" in der Wiedergabe, welche meist in Form von Artefakten erkennbar sind.
Durch die Skalierung von Filmen auf eine höhere Wiedergabeauflösung können diese technisch bedingten Artefakte (wie Rauschen und Flimmern an kontraststarken Kanten) verhindert werden. Voraussetzung dafür ist ein ordentlicher Skaler. Das hat natürlich auch für OLED-TV-Geräte Gültigkeit.


[Beitrag von George_Lucas am 04. Jun 2014, 16:29 bearbeitet]
Skarpin
Inventar
#3 erstellt: 04. Jun 2014, 16:34
Sicherlich ist ein guter Scaler entscheidend, aber in der Praxis habe ich das noch nicht erlebt.
Rossi_46
Inventar
#4 erstellt: 04. Jun 2014, 16:35
Dann schaue die doch den Sony X9A/B an!
Skarpin
Inventar
#5 erstellt: 04. Jun 2014, 16:49
Nicht gegen dein Sony, aber wenn überhaupt, dann ein 4k OLED und das erst dann wenn 4k sich zum Standard gemacht hat.Filmtechnisch.


[Beitrag von Skarpin am 04. Jun 2014, 16:59 bearbeitet]
snowman4
Hat sich gelöscht
#6 erstellt: 04. Jun 2014, 20:27

Skarpin (Beitrag #7100) schrieb:
Ein natives Bild wird immer besser als ein Skaliertes Bild sein.Egal was für Komponenten da eingebaut werden.Und da die Unterschiede zwischen 2k und 4k sich in Grenzen halten braucht man sich darüber keine großen Hoffnungen machen.


Du hast aber bei Full HD bei TV Sendungen auch kein natives 1080p Bild, da gibt es 720p und 1080i.

Das sich der Unterschied in Grenzen hält hat auch niemand bestritten.
Skarpin
Inventar
#7 erstellt: 04. Jun 2014, 21:00

snowman4 (Beitrag #7105) schrieb:

Skarpin (Beitrag #7100) schrieb:
Ein natives Bild wird immer besser als ein Skaliertes Bild sein.Egal was für Komponenten da eingebaut werden.Und da die Unterschiede zwischen 2k und 4k sich in Grenzen halten braucht man sich darüber keine großen Hoffnungen machen.


Du hast aber bei Full HD bei TV Sendungen auch kein natives 1080p Bild, da gibt es 720p und 1080i.

Das sich der Unterschied in Grenzen hält hat auch niemand bestritten.
Das stimmt. Jetzt überlege mal, du hast ein 4k TV,was das für einen Sinn ergeben soll?! Nämlich, gar keinen.
-Didée-
Inventar
#8 erstellt: 04. Jun 2014, 21:18
Das größte Problem am "Skalieren" sind diejenigen, die darauf bestehen, dass Skalieren ein Problem darstellen würde. Der Vorgang selber, incl. Ergebnis, ist ziemlich unproblematisch.
Skarpin
Inventar
#9 erstellt: 04. Jun 2014, 21:24
Das ändert nichts an der Tatsache, dass die Bildqualität trotzdem drunter leidet. Ich kauf mir doch keinen 4k TV nur damit ich mir Hochskaliertes Material angucke. Ich hab nichts gegen 4k.Allerdings ist es meiner Meinung nach noch zu Früh, um davon sinnvoll zu Profitieren.


[Beitrag von Skarpin am 04. Jun 2014, 21:35 bearbeitet]
George_Lucas
Inventar
#10 erstellt: 05. Jun 2014, 00:33

Skarpin (Beitrag #7109) schrieb:
Das ändert nichts an der Tatsache, dass die Bildqualität trotzdem drunter leidet.

Das wird von Laien mit Nichtwissen immer wieder behauptet - ist aber grundsätzlich falsch.
Eine Blu-ray mit 1920 x 1080 Pixel, 8 Bit und 4:2:0 wiederzugeben ist sogar das schlechteste, was der Nutzer tun kann.
Heutige pixelbasierende Displays führen nämlich keine vollständige Rekonstruktion durch, beispielsweise von zugespieltem Full-HD-Quellmaterial, weil ihnen dafür der Tiefpass fehlt. Aus diesem Grund ergeben sich an kontrastreichen Pixelübergängen Aliasing. Deutlich fällt das an weißer Schrift auf schwarzen Hintergrund auf, oder wenn der Schauspieler ein weißes Hemd vor dunklem Hintergrund trägt, oder wenn der "Star Wars"-Schriftzug kleiner wird und allmählich im Weltraum verschwindet - hier ist deutliches Grießeln zu sehen.
Der Grund dafür sind Rundungsfehler in der digitalen Signalverarbeitung, wie beispielsweise bei der Wandlung von YCbCr nach RGB. Diese führen zu Verlusten und es treten dadurch neue sichtbare Fehler (Grießeln) auf.

Fazit:
Je höher die Auflösung des Displays also ist, je höher die Ziel-Bitrate, je höher der HDMI-Pegel, umso weniger Artefakte (wie Grießeln) treten auf - einen guten Skaler natürlich vorausgesetzt.


Darüber hinaus sehen 4K-Filme auf einem 4K-OLED-TV besser aus als hochskaliertes Full-HD-Kontent. Keine Frage.
Von 4K-Filmen profitieren aber auch Full-HD-Displays.
Wenn 4K-Kontent auf Full-HD-Auflösung herunterskaliert wird, sieht das auf einem Full-HD-Display besser aus als Full HD-Kontent,
weil Kompressionsartefakte verringert werden. Diese Artefakte Verlagern sich nämlich in Bereiche, die beim Skalieren verloren gehen.
Banding- und Ringing-Effekte, die auf dem Quellmaterial vorhanden sind, werden aber auch weiterhin dargestellt werden.



Skarpin (Beitrag #7109) schrieb:
Ich kauf mir doch keinen 4k TV nur damit ich mir Hochskaliertes Material angucke.

Aus den oben genannten gründen solltest Du das aber tun, wenn Dir eine optimale Bildwiedergabe am Herzen liegt. Besser sieht dann nur 4K-Kontent aus.


[Beitrag von George_Lucas am 05. Jun 2014, 00:53 bearbeitet]
Skarpin
Inventar
#11 erstellt: 05. Jun 2014, 01:08
Mir geht es darum, dass eine native Auflösung immer besser aussieht, als eine Hoch oder Runterskalierte Auflösung. Und warum ein Runterskaliertes 4k Material besser aussehen soll, als Full Hd natives, Material erschließt sich mir nicht wirklich. Ich werde sobald sich die Gelegenheit ergibt, einen 4k OLED ausgiebig testen. Und dann wird sich zeigen, was Sache ist.Und das mit dem Scaler, hatten wir schon einmal.


[Beitrag von Skarpin am 05. Jun 2014, 01:13 bearbeitet]
George_Lucas
Inventar
#12 erstellt: 05. Jun 2014, 01:25

Skarpin (Beitrag #7111) schrieb:
Mir geht es darum, dass eine native Auflösung immer besser aussieht, als eine Hoch oder Runterskalierte Auflösung.

Das stimmt eben nicht, was du schreibst. Eine runterskalierte Auflösung sieht in aller Regel etwas besser aus als Quellmaterial in derselben Zielauflösung.
Das ist seit Einführung der Blu-ray weitgehend bekannt. Schon da hatten PAL-TV-Besitzer berichtet, dass Blu-rays auf ihrem PAL-Fernseher besser aussehen als TV-Sendungen oder DVDs.

Wenn die versprochene Haltbarkeit von OLED-TV-Geräten gewährleistet ist, werden wir alle mit diesen Geräten sicherlich viel Freude haben in der Kombination mit 4K-Filmen.
beehaa
Inventar
#13 erstellt: 05. Jun 2014, 03:11

snowman4 (Beitrag #7098) schrieb:
Weil qualitativ bessere Komponenten verbaut sind. Der 2K Markt ist ja preislich so zerfledert, dass überall gespart wird.

Ah? Dann war DAS das gute an Panaplasmas? Da ging es mit jeder Generation mal mehr mal weniger, aber doch jedesmal kleinwenig besser. Bis es dann mit einem GTW60/VTW60-Paukenschlag aufhörte.

Meint ihr das wird bei OLED wie bei LCD, daß die Fernseher später immer schlechter werden? Sollten wir nicht lieber jetzt schon loslaufen und die aktuellen OLEDs schon kaufen, bevor deren Markt "zerfledert" wird und die Hardware kaum noch was taugt? Kaufen kaufen kaufen

@George Lucas
Jou. Eine Br auf HDTV abzuspielen ist das schlechteste was man machen kann. Klingt gut
Das hat aber auch keine der 1001 Testseiten bis jetzt getestet? Also, daß remastered BR von StarWarsIII am 4k OLED weniger grießelt als am EdelLCD/VTW60? "Fazit"?

Davon aber ab frag ich mich wer von der BR mit Frau/Freunden z.B. Oblivion angeschaut hat - so mit Sofa, Chips, 5.1 & Co. - und ihm selbst oder irgendjemandem dabei Kompressionsartefakte aufgefallen sind. Die Fallen mir nur ab und zu auf, wenn ich mit der Nase am Panel Standbilder "durchblätter".

Es wundert mich nur, daß DVB-SD beim Wechsel vom Aconda auf GW10 nicht besser, sondern schlechter wurde und über einige TV-Generationen gleich schlecht geblieben ist. Das mochte deinem Fazit irgendiwe nicht folgen. ERST mit den Prozessoren des GTW60 konnte der Gedanke an HD+ endgültig begraben. 4k Hardware wird dagegen BR besser wiedergeben als HD-Hardware?

4K auf HDTV sieht besser aus. BR auf 4k sieht besser aus. Irgendwie komme ich da nicht mit... Vor allem ich hab hier mit MPC-HC und madvr wegen verschiedenen PC-Monitoren (Auflösungen) die hier durchgingen schon dermassen viel experimentiert, daß es mir schwer fällt da nur ein Wort für Wahres zu halten. Sorry.


[Beitrag von beehaa am 05. Jun 2014, 03:49 bearbeitet]
BigBubby
Inventar
#14 erstellt: 05. Jun 2014, 07:19
4k gibt kaum Möglichkeiten zum schönen skalieren gegenüber 2k. Die verdopplung der Pixel pro Richtung ist da einfach zu wenig. Wäre man auf 3 Pixel pro Richtung gegangen, wäre das besser, denn so bbliebe der zentrale Pixel, also die Information voll erhalten, während bei 4k die Information immer auf zwei aufgeteilt werden.
blöd zu erklären, aber ich hoffe ihr wisst was ich meine ;-)
George_Lucas
Inventar
#15 erstellt: 05. Jun 2014, 08:51

beehaa (Beitrag #7113) schrieb:
(...) daß es mir schwer fällt da nur ein Wort für Wahres zu halten. Sorry.

Du kannst natürlich glauben, was Du willst.
Die technischen Hintergründe sind schon sehr lange bekannt.
Im Beisammen-Forum hat der User FoLLgoTT sogar unfangreiche Messdiagramme und Screenshots diesbezüglich eingestellt.
Die Auswirkungen der digitalen Projektion

Lies das einfach mal.
Frozone1981
Stammgast
#16 erstellt: 05. Jun 2014, 08:54
4k hat 4mal soviel Pixel wie 2k. --> Aus 4 Pixel mach 1 beim runter skalieren.

Das hat sogar den Vorteil das man aus 4k 4:2:0 8Bit ein 2k 4:4:4 8Bit (etwas höher, da auch mehr Lichtinformation, aber es sind nicht 10Bit) Bild bekommt.

Wurde hier getestet und diskutiert: http://www.eoshd.com...iscuss/?hl=4%3A4%3A4
-Didée-
Inventar
#17 erstellt: 05. Jun 2014, 09:17

BigBubby (Beitrag #7114) schrieb:
4k gibt kaum Möglichkeiten zum schönen skalieren gegenüber 2k. Die verdopplung der Pixel pro Richtung ist da einfach zu wenig. Wäre man auf 3 Pixel pro Richtung gegangen, wäre das besser, denn so bbliebe der zentrale Pixel, also die Information voll erhalten, während bei 4k die Information immer auf zwei aufgeteilt werden.
blöd zu erklären, aber ich hoffe ihr wisst was ich meine ;-)

Das ist aber nicht richtig, bzw., das muss keineswegs so sein. Wenn man ein generisches 2x-Scaling mit einem Kernel-Scaler durchführt und ein Output-Shifting um 1/2-Pixel vornimmt, dann bleiben die Originalpixel unverändert erhalten.
Ob die Scaler in den TVs tatsächlich so implementiert sind weiß jetzt auch nicht, aber rein technisch ist das eher trivial.
Skarpin
Inventar
#18 erstellt: 05. Jun 2014, 10:28
Und was ist,wenn der Scaler nicht gut runterskaliert?
hagge
Inventar
#19 erstellt: 05. Jun 2014, 10:59
Auf Wunsch von George_Lucas füge ich hier eine (inzwischen leicht überarbeitete) Kopie meines Beitrags aus dem OLED-Thread ein, dessen Erstellung sich leider mit der Aufteilung des Threads und damit der Erstellung dieses Threads hier überschnitten hat. Bitte die Diskussion zur Skalierung hier und nicht im OLED-Thread weiterführen.


Supermario (Beitrag #7083) schrieb:
Mir würde die Skalierung sofort auffallen, geschultes Auge.

Sorry, aber das bezweifele ich massiv. Wohlgemerkt, es geht nicht um skaliertes SD gegen HD, sondern um (gut) skaliertes SD gegen genauso großes natives SD. Dass Du da wirklich das native SD-Bild besser findest, bezweifele ich wie gesagt ganz massiv.


Außerdem habe ich noch keinen Algorithmus gesehen bei dem SD hochskaliert besser aussah wie nativ auf einem CRT-TV.

Dann weiß ich nicht, was Du für HDTV-Fernseher gesehen hast. Ich sitze bei meinem 55-Zoll HX925 in ca. 2,5m davor und kann SD, also z.B. eine DVD, wunderbar schauen. Dieser Abstand ist nicht mal die zweifache Diagonale (55 Zoll = ca. 1.40m). Und ich kann auch locker auf 2m ran, ohne dass ich bei SD gleich Augenkrebs kriege. Mir wäre es aber nie im Traum eingefallen, mich vor eine 16:9-Röhre in einem Abstand von weniger als die dreifache Diagonale hinzusetzen, weil dann deutliche Nachteile zu sehen gewesen wären. Üblich war so in etwa die vier- bis fünffache Diagonale bei 16:9-Fernsehern und fünf- bis siebenfache Diagonale bei 4:3-Fernsehern.

Mir geht es darum, dass bei den heutigen Fernsehern ja noch mehr passiert, als dass nur skaliert wird. Da wird nachgeschärft, da werden Datenbanken eingesetzt, die (im Frequenzspektrum) niedrig auflösende Texturen durch höherauflösende Texturen ersetzen, usw. Natürlich kann man mit solchen Verfahren, wenn man es übertreibt, auch das Bild komplett kaputt machen. Aber dezent eingesetzt und gut kombiniert ist das Ergebnis ein Bild, das wirklich mehr Details enthält als das originale SD-Bild. Und ein Bild, das mehr Details hat, ist meiner Definition nach auch das bessere Bild.


beehaa (Beitrag #7085) schrieb:
Da brauchst du kein geschultes Auge für haben. Mein letzter CRT war ein Loewe Aconda. NIE IM LEBEN hat SD auf einem HDTV den Auflösungseindruck auf 1cm?. Vor allem nicht, wenn es DVB-SD ist.

Was ist ein "Aufllösungseindruck von 1cm"? Diesen Terminus kenne ich nicht.

Ansonsten denke ich, dass da viel Verklärung und falsche Erinnerung an die Röhren vorherrscht. Heute kommen einem manche SD-Bilder unscharf vor, weil man natürlich relativ gesehen viel näher an den TVs dran sitzt. Und zwar nicht nur ein bisschen, sondern ganz massiv näher. Mein Zahlenbeispiel habe ich oben gegeben. Und außerdem weil man heute naturgemäß immer nur skaliertes SD mit nativem HD vergleicht. Und da kommt das skalierte SD natürlich schlechter weg, ist doch logisch. Bei meiner Aussage ging es aber um skaliertes SD auf einem HD-Gerät verglichen mit gleich großem nativen SD. Und dass da das native SD besser wegkommt, wage ich zu bezweifeln. Und das ist ja der Vergleich, der momentan dem 2K-auf-4K skalierten Material vs. dem nativen 2K-Material entspricht.


Bei DVD hab ich den Aconda mit Pana S49 beliefert (custom firmware). Wenn ich jetzt vom eingestellten BDT320 auf einen GTW60 zuspiele, könnte ich darüber mit mir reden lassen, ob das denn noch erwähnenswert schlechter aussieht.

Redest Du da jetzt wirklich von einem side-by-side-Vergleich? Oder vergleichst Du mit Deiner Erinnerung? Weil letzteres kannst Du in die Tonne treten, Du glaubst gar nicht, wie falsch Du da liegst. Aus der Erinnerung zu sagen, Gerät A oder Gerät B ist in irgendeinem Punkt besser, ist komplett Nonsens.

Mache mal folgenden Versuch: Schaue Dir eine Filmpassage mit Deinen normalen, optimal eingestellten Einstellungen an. Die muss nicht lang sein, vielleicht 2-3 Minuten. Dann drehst Du die Farbsättigung deutlich spürbar nach oben, also so mindestens 20-30 Punkte, wenn die Skala des Reglers 100 Punkte umfasst. Jetzt schaust Du Dir diese Filmpassage nochmal an. Natürlich ist sie jetzt unnatürlich bunt und macht keinen Spaß. Das ist aber egal. Es geht nur darum, dass Du jetzt mal eine Weile einem massiven Farbüberschuss ausgesetzt sein sollst. Nun drehst Du die Sättigung wieder auf den ursprünglichen Wert zurück und schaust die Passage ein drittes Mal an. Die Passage wird Dir nun unnatürlich blass erscheinen und lange nicht mehr so gut wie beim ersten Mal. Erst mit der Zeit gewöhnst Du Dich wieder an diese Einstellung.

Was ich damit sagen will ist folgendes: ein und dieselbe Einstellung kann mal gut und mal schlecht aussehen. Es hängt immer davon ab, was man zuvor gesehen hat. Wenn man also einen Vergleich der SD-Fähigkeiten eines HDTVs machen will, dann geht das nicht aus dem Gedächtnis, weil der erlebte Eindruck ganz anders ist, wenn man zwischenzeitlich was anderes gesehen hat. Wenn man also heute viel HDTV schaut, dann wird einem SD immer *viel* schlechter vorkommen. Aber ob es wirklich schlechter als das damalige native SD ist, das kann man gar nicht mehr beantworten, wenn man zwischendurch HD gesehen hat. Der Mechanismus, der im Gehirn abläuft, ist in etwa folgender: damals kam einem SD scharf vor. Heute kommt einem HD scharf vor und SD nicht mehr. Also ist die Folgerung, dass SD heute schlechter ist als damals. Das ist aber eine Schlussfolgerung, die auch komplett falsch sein kann und es meist sogar ist. Zudem gab es damals ja noch die ganzen Konvergenzprobleme, nicht übereinanderliegende Farben und Bildschärfeprobleme durch unzureichend fokussierten Elektronenstrahl. Daran erinnert man sich gar nicht mehr, weil man damals nie so nah dran saß wie heute, aber die würde man sehen, wenn man so nah dran sitzen würde wie heute.

So etwas geht also wirklich nur in einem direkten Vergleich, wenn man die Geräte also direkt nebeneinander stehen hat. Und selbst da ist es sehr schwer, skaliertes SD-Material auf einem 55-Zoll HDTV mit nativem SD auf einem 32-Zoll SDTV zu vergleichen, einfach schon wegen der Bilddiagonale. Die TVs müsste man sozusagen nicht nebeneinander, sondern in der Tiefe versetzt aufbauen, so dass man von der Betrachterposition in etwa den gleichen relativen Abstand hat. Also den großen Flachbild-TV weiter weg und die kleine Röhre näher ran. Und auch dann passt das nur für eine Entfernung, denn gehe ich 1m näher ran, bin ich ja dann bei der Röhre schon fast auf dem Bild drauf und beim anderen TV immer noch weit weg. Das relative Verhältnis der Entfernungen ändert sich also dauernd, wenn man weiter weg oder näher dran geht. Das macht so einen Vergleich sehr schwer. Für einen fairen Vergleich müsste man folglich wirklich gleiche Diagonalen wählen. Da es nur vergleichsweise kleine Röhren gibt bzw. gab, müsste man also mit einem relativ kleinen Full-HD-Gerät vergleichen. Das sind heute aber die Einsteigergeräte, die bei weitem keine so gute Bildaufbereitung und damit auch Skalierung bieten wie die großen Top-Modelle, wodurch der Vergleich auch wieder nicht die besonders guten Skalierungen betrachten würde, über die wir hier sprechen.

Du siehst, so ein Vergleich ist selbst dann sehr sehr schwer, wenn man zwei entsprechende Geräte live zur Verfügung hat. Aber aus dem Gedächtnis? No way!


Aus 3m auf 75" glotzen kommt glaubich dem Gefühl schon nach, im Kino so vor der Leinwand zu sitzen, daß man sie mit gestrecktem Arm berühren kann. Hat aber den Vorteil, daß eine Investition in Filmmaterial wesentlich öfters Spaß und Interesse bereitet. Denn man kann dann einen Film 5x schauen und je nachdem auf welche Bereiche man sich konzentriert, entdeckt man immer wieder neue Details in den Szenen...

Und hier ist er wieder, dieser Mythos, dass die Bilddiagonale was mit dem Kino-Effekt zu tun hat. Nein, hat er nicht. Du kannst auch einen sehr kleinen Bildschirm nehmen, nur musst Du dann näher ran. Nicht die absolute Entfernung ist entscheidend, sondern die relative. Wenn Du an eine 30-Zoll-Kiste entsprechend nah rangehst, so dass das Bild gerade so Dein Sichtfeld komplett ausfüllt, dann ist der Effekt ziemlich genau gleich, als ob Du an einen 75-Zoll-TV auf eine Entfernung rangehst, so dass das Bild ebenfalls gerade so Dein Sichtfeld komplett ausfüllt. Ja, in der Praxis sähe das bei dem kleinen TV rein möbeltechnisch etwas lächerlich aus und wäre wohl nur für eine Person geeignet, während es bei der 75-Zoll-Variante ganz elegant aussehen würde und auch für mehrere Personen geeignet wäre, aber rein vom Bildeindruck kann man auch bei einem kleinen TV den Effekt wie in der ersten Reihe im Kino erreichen, man muss nur entsprechend nah ran.


Supermario (Beitrag #7086) schrieb:
Das alle immer von hochskalieren schwärmen vesteh ich auch nicht. Das ist nun mal nötig wenn man den ganzen Bildschirm nutzen will, aber es macht nichts besser sondern immer schlechter.

Diese Aussage stimmt so nicht. Das war früher mal so, stimmt heute aber definitiv nicht mehr.


Das was viel besser wie hochskalieren ist, ist runterskalieren und das haben wir ja schon. Nennt man den Supersampling Effekt. Ein Film der mit einer HD-Cam aufgenommen wurde und dann in SD betrachtet wird, sieht besser aus wie wenn der Film gleich in SD aufgenommen wurde. Genauso verhält es sich dann mit 4K.

Korrekt. Aber darum geht es jetzt momentan nicht.


beehaa (Beitrag #7087) schrieb:
Wenn ich Pixel/Punkte dazu rechne, kann das vom Schärfeeindruck nicht besser aussehen als nativ, denn damit dichte ich mir schlicht Punkte dazu. Und das Hinzudichtun entspricht nie der Realität.

Korrekt. Du verwendest hier allerdings den Begriff Realität und meinst eigentlich Originalität. Diese Begriff sind meiner Meinung nach zu unterscheiden. Denn meiner Meinung nach wirkt ein Bild dann besser, wenn es realistischer aussieht. Dabei muss es aber nicht unbedingt originalgetreuer aussehen. Das ist eine feine, aber ganz erhebliche Unterscheidung!

Eigentlich machst Du nichts anderes, wenn Du an der Helligkeit des Bildes drehst oder am Kontrast oder am Gamma oder an den Farben. Du veränderst das Bild, es ist danach nicht mehr originalgetreu, aber es ist nach wie vor realistisch. Stört uns das? Nein. Weil es eigentlich überwiegend nur auf das "realistisch" ankommt, nicht so sehr auf das "originalgetreu". Wissen wir, wie es an der Stelle im Film in echt aussah? Nein. Tatsächlich wird da bei der Filmnachbearbeitung im Studio schon heftig an den Farbwerten gedreht, es werden zum Teil Wolken in den Himmel platziert, wenn der sonst zu langweilig war, usw. usf. Was ist da denn noch originalgetreu? Nichts. Wenn also der TV ein Bild erzeugt, das so realistisch aussieht, dass es so hätte ausgesehen haben können, dann ist das für einen guten Bildeindruck eigentlich völlig ausreichend. Und insofern ist der Begriff Reality-Creation, den Sony für seine Bildaufbearbeitung und -skalierung gewählt hat, eigentlich ziemlich gut zutreffend. Das Bild erhält zusätzliche Informationen, die so im kleinen Bild nicht vorhanden waren. Natürlich sind diese Informationen hinzuerfunden, aber sie sind realistisch und alles hätte so im Original ausgesehen haben *können*.

Wohlgemerkt wir reden hier von Pixeldetails in einer (frequenzbasierten) Textur, nicht davon, dass der TV auf einmal einen Ball oder eine Person ins Bild hinzuerfindet. Es ist völlig irrelevant, ob die Oberfläche eines Felsens nun originalgetreu aussieht oder nur realistisch. Das sind Details, die sich das Gehirn ohnehin nicht merkt. Die originalgetreue Textur kann der TV natürlich nicht oder höchstens durch Zufall hinzufügen, aber eine realistische Textur kann er sehr wohl hinzufügen. Dazu, dass das Bild dann besser als in der geringeren Auflösung aussieht, reicht das aber allemal.

Gruß,

Hagge


[Beitrag von hagge am 05. Jun 2014, 11:21 bearbeitet]
Nui
Inventar
#20 erstellt: 05. Jun 2014, 11:13

hagge (Beitrag #19) schrieb:
Wenn Du an eine 30-Zoll-Kiste entsprechend nah rangehst, so dass das Bild gerade so Dein Sichtfeld komplett ausfüllt, dann ist der Effekt ziemlich genau gleich, als ob Du an einen 75-Zoll-TV auf eine Entfernung rangehst, so dass das Bild ebenfalls gerade so Dein Sichtfeld komplett ausfüllt

Kann ich nicht bestätigen. Meine 1.25m bei 50" wirken nicht wie Kino, weil der absolute Abstand leider schnell auffällt.


[Beitrag von Nui am 05. Jun 2014, 11:13 bearbeitet]
George_Lucas
Inventar
#21 erstellt: 05. Jun 2014, 11:19
Es macht schon einen Unterschied, (ich übertreibe jetzt mal bewusst) ob der Betrachtungswinkel 60° auf ein 30 cm-Display beträgt oder 60° auf eine 20 Meter breite Leinwand.
Jede (minimale) Kopfbewegung und sogar der Ton verändern die Raumwahrnehmung und somit den Bild/Größeneindruck.
Unsere Wahrnehmung lässt sich hier nicht so leicht "austricksen".
celle
Inventar
#22 erstellt: 05. Jun 2014, 11:26

Und hier ist er wieder, dieser Mythos, dass die Bilddiagonale was mit dem Kino-Effekt zu tun hat. Nein, hat er nicht.


Das stimmt so nicht. Keiner der vor einem PC-Monitor sitzt, wird das als Kino-Effekt bezeichnen. Das Gehirn weiß einfach, dass das eigentliche Bild klein ist und man nur sehr nah davor sitzt. So einfach lassen sich die Augen dann doch nicht täuschen. Eine Katze wird aus näherer Betrachtungsentfernung nicht plötzlich zum Elefanten.
hagge
Inventar
#23 erstellt: 05. Jun 2014, 11:39

George_Lucas (Beitrag #21) schrieb:
Es macht schon einen Unterschied, (ich übertreibe jetzt mal bewusst) ob der Betrachtungswinkel 60° auf ein 30 cm-Display beträgt oder 60° auf eine 20 Meter breite Leinwand.

Wenn das Bild das Sichtfeld ausfüllt, also der gleiche relative Abstand zum Bild herrscht, ist auch der Winkel zum Bild identisch. Ist doch auch logisch. Das Sichtfeld des Menschen umfasst eine gewisse Gradzahl von links nach rechts. Ich kenne die Zahl leider gerade nicht auswendig, aber nehmen wir mal an es sind -60 bis +60 Grad relativ zur Geradeaus-Richtung. Wenn das TV-Bild also das Sichtfeld ausfüllt, sind es somit immer +/-60 Grad, egal wie groß die absolute Diagonale des Bildes ist.

Umgekehrt gilt auch im Kino, dass man auch dort nur einen relativ schlechten Effekt erzielen wird, wenn man sehr weit hinten sitzt. Weil dann die Leinwand so weit weg ist, dass sie auch nur einen geringen Teil des Sichtfelds ausfüllt. Kino wird also desto mehr zu einem Erlebnis, je mehr das Bild das komplette Sichtfeld ausfüllt. Also wenn man etwas weiter vorne im Kino sitzt. Ganz vorne ist man dann schon wieder zu nah, so dass man den Kopf drehen muss, um das Bild zu erfassen, das ist dann auch wieder nichts. Also ist Kino in der Beziehung genau gleich wie vor einem Beamer oder einem TV. Der relative Abstand ist entscheidend.

Das einzige wo es einen Unterschied macht, ist die absolute Größe der optimalen Sitzposition. Je größer das Bild ist, desto mehr Leute können sich in eine möglichst optimale Sitzposition bringen. Bei einem TV mag das vielleicht nur für eine oder zwei Personen klappen, bei einem Beamer für 5 bis 10 Personen und im Kino halt für 50 bis 100 Personen.

Ansonsten spielen im Kino noch ganz andere Effekte eine Rolle für den dortigen Wow-Effekt, die mit der Bildgröße rein gar nichts zu tun haben: deutlich höhere Musikleistung/Lautstärke als bei den Leuten zu Hause, deutlich mehr Lichtleistung, deutlich größerer Farbraum (DCI im Vergleich zu REC709), und nicht zuletzt die Atmosphäre durch die Räumlichkeit und die anderen Zuschauer. Wenn hundert Leute in einer spannenden Szene die Luft anhalten, dann ist das einfach was anderes als zu Hause. Wenn eine Explosion mit 10000 Watt Bassleistung auf einen einstürmt, dann ist das was anderes als zu Hause. *Das* ist der Kino-Effekt, der sich zu Hause selbst mit einem Beamer nur sehr bedingt nachfühlen lässt.

Das mit dem Kopfdrehen ist hingegen eine Sache, wo Du recht hast. Das kann eine gewisse Rolle spielen, so dass einem das kleine Bild wirklich kleiner vorkommt. Das ist aber dann ein Nebeneffekt und wenn man den Kopf ruhig hält, kann auch ein kleines Bild sehr überzeugend sein.
Edit: Nach etwas Überlegen gilt eigentlich auch das nicht. Wenn ich vor dem Bild sitze, so dass das Bild mein Sichtfeld von angenommenen 120 Grad ausfüllt, muss ich in allen Fällen den Kopf um genau 120 Grad seitlich drehen, bis das Bild komplett aus meinem Sichtfeld verschwunden ist. Auch bei kleineren Kopfdrehungen sollte demnach der Effekt sehr ähnlich sein. Somit auch hier kein Unterschied zwischen großem und kleinem Bild.

Gruß,

Hagge


[Beitrag von hagge am 05. Jun 2014, 11:56 bearbeitet]
Nui
Inventar
#24 erstellt: 05. Jun 2014, 11:45

hagge (Beitrag #23) schrieb:
Das mit dem Kopfdrehen ist hingegen eine Sache, wo Du recht hast. Das kann eine gewisse Rolle spielen, so dass einem das kleine Bild wirklich kleiner vorkommt. Das ist aber dann ein Nebeneffekt und wenn man den Kopf ruhig hält, kann auch ein kleines Bild sehr überzeugend sein.

So ruhig kann man seinen Kopf nicht halten. Unser stereoskopisches Sehen macht uns vermutlich schon einen Strich durch die Rechnung.
Ich bin von einem 19" Monitor auf 50" umgestiegen. Ich saß sehr an dem Monitor, um eben genau deinen relativ großen Eindruck zu erhalten. Das gelingt aber nicht, der 50" wirkt imposanter, aber auch nicht wie ein Beamer. Und ich schaue schon im Dunkeln, was mir zumindest andere visuelle clues abschwächt.

Ein kleines Bild wird dadurch nicht unbedingt schlecht, aber ein größeres wäre mir lieber, aber nicht unbedingt für den Preis


[Beitrag von Nui am 05. Jun 2014, 11:46 bearbeitet]
hagge
Inventar
#25 erstellt: 05. Jun 2014, 11:49
Wow, Du warst zu schnell. Ich habe den von Dir zitierten Punkt soeben korrigiert. Eigentlich gibt es doch keinen Unterschied. Wenn, dann ist es also eher das unterschwellige *Wissen*, nicht das Sehen.

Gruß,

Hagge


[Beitrag von hagge am 05. Jun 2014, 11:53 bearbeitet]
Supermario
Inventar
#26 erstellt: 05. Jun 2014, 11:55

hagge (Beitrag #19) schrieb:


Supermario (Beitrag #7083) schrieb:
Mir würde die Skalierung sofort auffallen, geschultes Auge.

Sorry, aber das bezweifele ich massiv. Wohlgemerkt, es geht nicht um skaliertes SD gegen HD, sondern um (gut) skaliertes SD gegen genauso großes natives SD. Dass Du da wirklich das native SD-Bild besser findest, bezweifele ich wie gesagt ganz massiv.

Das mir die Skalierung auffallen würde bezog sich in dem Fall auf 2K zu 4K skalieren weil das so hoch gelobt wurde. Aus normaler Entfernung würde es mir auch nicht auffallen, da wäre mir vollkommen egal was alles mit dem Bild angstellt wird, solange es mir gefällt. Wenn ich aber das Bild untersuche und nah rangehe, sehe ich die Dinge der Skalierung die mir nicht gefallen.

hagge (Beitrag #19) schrieb:


Außerdem habe ich noch keinen Algorithmus gesehen bei dem SD hochskaliert besser aussah wie nativ auf einem CRT-TV.

Dann weiß ich nicht, was Du für HDTV-Fernseher gesehen hast. Ich sitze bei meinem 55-Zoll HX925 in ca. 2,5m davor und kann SD, also z.B. eine DVD, wunderbar schauen. Dieser Abstand ist nicht mal die zweifache Diagonale (55 Zoll = ca. 1.40m). Und ich kann auch locker auf 2m ran, ohne dass ich bei SD gleich Augenkrebs kriege. Mir wäre es aber nie im Traum eingefallen, mich vor eine 16:9-Röhre in einem Abstand von weniger als die dreifache Diagonale hinzusetzen, weil dann deutliche Nachteile zu sehen gewesen wären. Üblich war so in etwa die vier- bis fünffache Diagonale bei 16:9-Fernsehern und fünf- bis siebenfache Diagonale bei 4:3-Fernsehern.

Mir geht es darum, dass bei den heutigen Fernsehern ja noch mehr passiert, als dass nur skaliert wird. Da wird nachgeschärft, da werden Datenbanken eingesetzt, die (im Frequenzspektrum) niedrig auflösende Texturen durch höherauflösende Texturen ersetzen, usw. Natürlich kann man mit solchen Verfahren, wenn man es übertreibt, auch das Bild komplett kaputt machen. Aber dezent eingesetzt und gut kombiniert ist das Ergebnis ein Bild, das wirklich mehr Details enthält als das originale SD-Bild. Und ein Bild, das mehr Details hat, ist meiner Definition nach auch das bessere Bild.

Supermario (Beitrag #7086) schrieb:
Das alle immer von hochskalieren schwärmen vesteh ich auch nicht. Das ist nun mal nötig wenn man den ganzen Bildschirm nutzen will, aber es macht nichts besser sondern immer schlechter.

Diese Aussage stimmt so nicht. Das war früher mal so, stimmt heute aber definitiv nicht mehr.

Du hast auch einen Teil von mir nicht zitiert bezüglich Skalierung. Denn das was ich als schlechter durch Skalieren bezeichne, können andere (so auch du) gut finden, weil es eben subjektiv ist. Was das mit dem SD auf CRT im Vergleich zu SD auf HDTV angeht, da haben wir einfach nur eine andere Meinung. Wir haben hier im Haus überall Röhren TV im Betrieb, nur ich hab einen Plasma und habe auch noch die Röhre in Betrieb die durch den Plasma ersetzt wurde. Eine Zeit lang standen beide nebeneinander und ich hab sie auch bei gleichem Abstand verglichen. Das was auf LCD/Plasma und Co besser aussieht wenn hochskaliert ist Schrift, weil besser lesbar. Aber alles andere wird matschiger. Es kann aber durch die Methoden die du beschrieben hast auch wirklich gut aussehen und man glaubt bei manchen hochskalierten DVD's es würde sich um HD Material handeln. Aber alles in allem ist die native Darstellung von SD auf den alten Röhren für mich viel besser und schärfer wie alles andere was es da noch so gibt.
Auch ich sitze ca. 2,5m von meinem 51er weg. Bei der Röhre saß ich etwas näher, relativ aber ca. 1,25 mal so weit weg. Also kein großer Unterschied.
Nui
Inventar
#27 erstellt: 05. Jun 2014, 12:04
@ Supermario
Und du bist dir sicher, dass der Vergleich Röhre vs Plasma nicht hinkt?
hagge
Inventar
#28 erstellt: 05. Jun 2014, 12:32

Supermario (Beitrag #26) schrieb:
Das mir die Skalierung auffallen würde bezog sich in dem Fall auf 2K zu 4K skalieren weil das so hoch gelobt wurde. Aus normaler Entfernung würde es mir auch nicht auffallen, da wäre mir vollkommen egal was alles mit dem Bild angstellt wird, solange es mir gefällt. Wenn ich aber das Bild untersuche und nah rangehe, sehe ich die Dinge der Skalierung die mir nicht gefallen.

Wie gesagt, ich habe erst vorletztes Wochenende wieder an einer Vorführung teilgenommen, wo uns echtes 4K-Material auf einem Gerät mit hochskaliertem 2K-Material auf einem zweiten 4K-Gerät nebeneinaner gezeigt wurde. Wir konnten beliebig nahe hingehen und die Bilder vergleichen. Es war wirklich *verblüffend*, wie gut das skalierte Bild war und da waren definitiv mehr Details drin als in einem reinen 2K-Bild.

Leider war auch das nur wieder der Vergleich 4K gegen skaliertes 2K und nicht skaliertes 2K gegen natives 2K. Aber wenn das skalierte 2K-Material nur noch kaum vom 4K-Material zu unterscheiden ist, kann die Skalierung so schlecht nicht sein.

Aber wir haben zum Beispiel auch SD auf 4K angeschaut, nämlich eine DVD. Und das war auch verdammt gut hochskaliert. Klar war es als niedrigere Auflösung zu erkennen, aber wir saßen auch in maximal 2m Abstand vor einem 65-Zoll 4K-TV. Das SD-Signal war durchaus OK. Und wie gesagt, ich wollte nicht in diesem relativen Abstand vor einer Röhre sitzen, da ist das Bild auch schon massiv unscharf.


Du hast auch einen Teil von mir nicht zitiert bezüglich Skalierung. Denn das was ich als schlechter durch Skalieren bezeichne, können andere (so auch du) gut finden, weil es eben subjektiv ist.

Das ist allerdings richtig. Aber wie gesagt, der obige Vergleich zu 4K zeigt, dass das eben halt doch halbwegs objektiv zu beurteilen ist, denn das kann man schon sagen, ob ein Bild nur einfach ein überschärftes Signal zeigt oder ob das Bild mehr Details bekommen hat. Man konnte ja auch die Reality Creation bei der Skalierung ausschalten und schwupps war das skalierte Bild lange nicht mehr so gut. Weil jetzt wirklich nur noch skaliert wurde. Den letzten Pfiff machen also genau solche Verfahren wie die Reality Creation von Sony aus.


Was das mit dem SD auf CRT im Vergleich zu SD auf HDTV angeht, da haben wir einfach nur eine andere Meinung. Wir haben hier im Haus überall Röhren TV im Betrieb, nur ich hab einen Plasma und habe auch noch die Röhre in Betrieb die durch den Plasma ersetzt wurde. Eine Zeit lang standen beide nebeneinander und ich hab sie auch bei gleichem Abstand verglichen.

Aber vermutlich auch nur wieder gleicher absoluter Abstand. Wenn Du Details angeschaut hast, bist Du vor die 30-Zoll Röhre genauso nah bis auf wenige Zentimeter hingegangen wie vor den 51-Zoll Plasma. Und das ist ja dann schon wieder unfair.


Das was auf LCD/Plasma und Co besser aussieht wenn hochskaliert ist Schrift, weil besser lesbar.

Was mich schon wieder wundert, weil genau das ist nur dann möglich, wenn eine entsprechende Bildverarbeitung *zusätzlich* zur eigentlichen Skalierung passiert.


Aber alles andere wird matschiger.

Nun, nichts gegen Samsung, aber vielleicht ist die Skalierung auf Deinem Plasma eben auch nicht die allerbeste? Zudem wurden hier in den letzten Jahren ganz erhebliche Fortschritte gemacht. Wenn der Plasma also schon ein paar Jährchen auf dem Buckel hat, ist das halt auch nicht mehr mit den heutigen Verfahren zu vergleichen


Es kann aber durch die Methoden die du beschrieben hast auch wirklich gut aussehen und man glaubt bei manchen hochskalierten DVD's es würde sich um HD Material handeln.

Genau das meine ich.


Aber alles in allem ist die native Darstellung von SD auf den alten Röhren für mich viel besser und schärfer wie alles andere was es da noch so gibt.

Aber auf der Röhre sah es doch nie nach HD aus. Wie kann das schärfer sein?

Gruß,

Hagge
hagge
Inventar
#29 erstellt: 05. Jun 2014, 12:36

snowman4 (Beitrag #6) schrieb:
Du hast aber bei Full HD bei TV Sendungen auch kein natives 1080p Bild, da gibt es 720p und 1080i.

Das stimmt halt nicht. Wenn der TV einen halbwegs guten Deinterlacer enthält, erkennt er das Halbbildmaterial bei 1080i und macht wieder 25 Vollbilder draus. Das heißt Du hast sehr wohl 1080p25 bei der DVB-Wiedergabe. Der einzige Unterschied zur BD mit 1080p24 ist dann nur noch der PAL-Speedup.

Gruß,

Hagge


[Beitrag von hagge am 05. Jun 2014, 12:40 bearbeitet]
Supermario
Inventar
#30 erstellt: 05. Jun 2014, 13:35
@Nui:
Wie genau meinst das jetzt mit dem Vergleich Plasma CRT?

@hagge:
Der Abstand bei diesem einen Test von meiner Röhre zum Plasma war relativ zur Diagonale gleich, sonst hätt ich diesen Vergleich nicht hergenommen.

Ich mag es nicht gerne in Foren zu diskutieren, weil man immer so viel dazu schreiben müsste, um die eigenen Worte zu beschreiben was man jetzt genau wie meint und welche Erfahrung und Tests und Wissen man schon hat.
Ich fasse nur kurz zusammen, im Laufe der Zeit habe ich schon viele Anzeigegeräte gesehen, eingestellt und auch kalibriert, letzteres aber eher weniger.
Durch das aufnehmen von DVB-Sendungen und bearbeiten dieser am PC sowie auch Farb und Detailsanalyse von anderen Quellen, wie DVD, Bluray, DV-Cam, RAW-Images von Spiegelreflexkameras usw. mit Avisynth, Photoshop usw. und meines Studiums der Medieninformatik, hab ich mir alles selbst beigebracht und nicht von anderen schlauen Leuten einfach alles übernommen. Ich hinterfrage erst alles und mache meine eigenen Beobachtungen. Auf Grundlage dieser ganzen Erfahrungen hat sich der Teil meiner Meinung in den obrigen Beiträgen gebildet. Diese Meinung ist meine und absolut. Ich kann diese Meinung nicht komplett in Schriftform darlegen. Wenn ich es könnte würdest du vielleicht sogar erkennen das wir gar nicht viel anderer Meinung sind, es nur anders beschreiben bzw. aus anderem Blickwinkel betrachten und anders gewichten.

Meine kurze Zusammenfassung meiner Erfahrungen und Wissen ist bestimmt nicht größer wie die der meisten hier. Viele werden mehr Erfahrung haben als ich, auch wenn ich mich schon fast 20 Jahre damit beschäftige. Ohne jemanden beleidigen zu wollen, finde ich das ich selbst etwas nüchterner und unvoreingenommener alles betrachte, das ist meine Natur. Es ist nur nicht so einfach mit Worten so zu klingen als wäre man unvoreingenommen.

Ich kann also immer verstehen wenn jemand dies oder das Gut findet und ein Anderer komplett dagegen argumentiert. Ich verstehe immer beide Seiten. Meistens haben nämlich auch beide recht

Edit:
Noch schnell zu hagges Kommentaren.
Früher, also so bis vor 3 Jahren, kam mir runterskalierte Blurays auf meiner Röhre wie Hd vor, ich konnte jede Details erkennen und die Absicht des Regisseurs was Farbpalette, Ausleuchtung, Kamerafahrt und Tiefenschärfe anging. Damals waren alle Bildschirme außer Röhre für mich nicht in der Lage Filme für mich gut genug darzustellen. Seit dem Plasma hat sich mein Sehempfinden etwas geändert, da ich mich an das schlechtere Plasmabild gewöhnen musste. (Da liegt mein Hauptproblem, ich hab keine Kohle mir was anderes, neues zu holen wenn was mit den Geräten nicht stimmt, ich muss immer mit dem Leben was ich hab, ob ich zufrieden bin oder nicht.)

Und noch zu dem Matschiger aussehen SD, das bezog sich nicht auf meinen Plasma sondern war allgemein gehalten, und hat auch nicht mit Filtern die Weichzeichen oder so zu tun, falls das jemand gedacht hat.


[Beitrag von Supermario am 05. Jun 2014, 13:45 bearbeitet]
Nui
Inventar
#31 erstellt: 05. Jun 2014, 13:58

Supermario (Beitrag #30) schrieb:
Wie genau meinst das jetzt mit dem Vergleich Plasma CRT?

Du hast doch die schärfe von einem CRT und einem plasma verglichen. Vielleicht stimmt was mit dem Vergleich nicht, dass der Vergleich positiv für die Röhre entschieden wurde, aber die Auflösung eigentlich nicht der entscheidene Faktor war?


Supermario (Beitrag #30) schrieb:
Damals waren alle Bildschirme außer Röhre für mich nicht in der Lage Filme für mich gut genug darzustellen.

Ich hab meinen Röhrenmonitor erst letztes Jahr mit dem 50VTW60 ersetzt
service
Inventar
#32 erstellt: 05. Jun 2014, 14:10

hagge (Beitrag #28) schrieb:
Wie gesagt, ich habe erst vorletztes Wochenende wieder an einer Vorführung teilgenommen, wo uns echtes 4K-Material auf einem Gerät mit hochskaliertem 2K-Material auf einem zweiten 4K-Gerät nebeneinaner gezeigt wurde. Wir konnten beliebig nahe hingehen und die Bilder vergleichen. Es war wirklich *verblüffend*, wie gut das skalierte Bild war und da waren definitiv mehr Details drin als in einem reinen 2K-Bild.

Die Bezeichnung echtes 4K-Material ist auflösungstechnisch nicht eindeutig, nur filetechnisch definiert. Das verwendete Kamera-Equipment und der gesamte Bearbeitungs-Workflow zu nennen wäre sinnvoller.Es sollte einem auch klar sein, das bei solchen Vorführungen verständlicherweise ähnlich heftig getricks wird, wie diverse Versprechungen auf Kaffee-Fahrten. Das scaliertes Material mehr Details bzw. geometrische Information erzeugt als natives ist physikalisch einfach nicht möglich. Es wäre sonst ein videotechnisches Perpetuum Mobile, das beliebig kaskadierbar wäre und jede weitere Entwicklung bezüglich höherer Auflösung für überflüssig machen würde.
Weil man momentan 4K Geräte verkaufen möchte, es jedoch kein ausreichendes Angebot an 4K-Content gibt, hat man den Anreiz der Auflösungserhöhung durch Scalierung erfunden.
Supermario
Inventar
#33 erstellt: 05. Jun 2014, 14:11
@Nui:
Ich hab ja in dem Beitrag drüber schon geschrieben, das der bessere Schärfeeindruck nicht speziell gegen meinen Plasma aufkommt, sondern allgemein wenn eine Pixelgrafik nicht nativ dargestellt wird. In meinem Beispiel mit dem Plasma war es tatsächlich so, das mein Plasma ohne Nachschärfung sehr unscharf wirkt, fast geblurred.
Aber du kennst das doch bestimmt auch von deiner Röhre, wenn man da ganz nah ran geht sieht man zwar die Pixel und Subpixel und hat diesen Screendoor-Effekt, aber trotzdem wirkt es nicht unscharf. Wogegen es bei skalierter betrachtung aus der nähe unschärfer ist.
Ich denke es hat etwas mit der absoluten Pixelgröße zu tun, welche bei Röhren durch die Maske simuliert werden. Je größer die kleinsten physischen Bildpunkte sind, egal wie gut die Augen sind, desto schärfer ist der Seheindruck wegen des Pixelgitters was man sehen kann. Das Auge kann besser auf große Pixel fokusieren wie auf kleine.


[Beitrag von Supermario am 05. Jun 2014, 14:12 bearbeitet]
Supermario
Inventar
#34 erstellt: 05. Jun 2014, 14:14
@service:
Das ist sehr gut formuliert. Wenn ich das doch auch könnte.
Nui
Inventar
#35 erstellt: 05. Jun 2014, 14:23

Supermario (Beitrag #33) schrieb:
Aber du kennst das doch bestimmt auch von deiner Röhre, wenn man da ganz nah ran geht sieht man zwar die Pixel und Subpixel und hat diesen Screendoor-Effekt, aber trotzdem wirkt es nicht unscharf. Wogegen es bei skalierter betrachtung aus der nähe unschärfer ist.

Ich konnte diesen Effekt kaum ausmachen, allerdings hab ich meine 19" Röhre hauptsächlich mit 1600x1200 betrieben habe, von nativ kann hier also nicht die Rede sein.
Allerdings finde ich ein Gitter schlimmer, als eine geglättete hohe Auflösung. Es sei denn ich spreche von computergenerierter Pixelgrafik, da sind mir simple skalierungen (Nearest Neighbour) oder pixelgrafik-optimierte Verfahren wie hqx4 lieber

Wir können 4k doch aber mit einem 1080p Gerät simulieren. Müssten ja nur unseren Abstand zum Gerät verdoppeln und einen 25% Ausschnitt von 4k Material anzeigen.
Leider erlaubt das keinen Direktvergleich, es sei denn wir haben ein Gerät doppelt
Skarpin
Inventar
#36 erstellt: 05. Jun 2014, 14:25
Trotzdem Hagge,kannst du das hochskalierte DVBT Bild im Vergleich zu der Blu-Ray, in die Tonne kloppen.Auch wenn es 1080p 25 sind.


[Beitrag von Skarpin am 05. Jun 2014, 14:33 bearbeitet]
Supermario
Inventar
#37 erstellt: 05. Jun 2014, 14:38
Das liegt aber an den Playout-Centern der Sender. Selbst ein HD-Film wird dort ziemlich zerstört. Das was z.B. bei HD+ noch rauskommt entspricht nach meiner Beurteilung etwa 90% einer 720p Auflösung.

@Nui:
Du musst ja nicht einen SD-Film auf deinem 19" anschauen. Mit Zoomplayer kannst du eine Video-Datei nativ abspielen, auch im Vollbild. Also auch eine Bluray nur das man dann nicht alles sieht vom Bild, aber für einen Nase an der Scheibe Test reicht das
Mir kommt ein geglättetes Bild eher unscharf vor, es entspricht ja noch nicht dem Blick aus dem Fenster oder einer Vektorgrafik. Ich mag lieber den Schärfeffekt durch ein Pixelgitter (auch wenn ich es aus Entfernung X nicht mehr sehen kann). Die Pixelfüllrate bestimmt hauptsächlich den Gittereffekt. Die Pixelfüllrate dürfte bei mir auch nur sehr hoch sein wenn die Auflösung des Quellmaterials in Pixeln und des Bildschirms so hoch ist, das es keinen Unterschied mehr macht zum Blick in die reale Welt.
Nui
Inventar
#38 erstellt: 05. Jun 2014, 14:46

Supermario (Beitrag #37) schrieb:
Du musst ja nicht einen SD-Film auf deinem 19" anschauen. Mit Zoomplayer kannst du eine Video-Datei nativ abspielen, auch im Vollbild.

Der Monitor ist leider dieses Jahr gestorben, müsste ich also am Plasma testen. Der MPC kann sowas vielleicht auch.
Ich kann aber sagen, dass vieles Material schärfer wirkt, wenn ich es kleiner machen, auch HD Material. Aber dabei hab ich noch nicht getestet, ob dieser Effekt auch erhalten bleibt, wenn ich meinen Abstand entsprechend noch weiter senke ...
Slatibartfass
Inventar
#39 erstellt: 05. Jun 2014, 14:50

Nui (Beitrag #38) schrieb:

Ich kann aber sagen, dass vieles Material schärfer wirkt, wenn ich es kleiner machen, auch HD Material. Aber dabei hab ich noch nicht getestet, ob dieser Effekt auch erhalten bleibt, wenn ich meinen Abstand entsprechend noch weiter senke ...

Wilkommen in der Welt der Physik, in der eben der Schärfeeindruck mir verkleinern der Darstellung und/oder vergrößern des Abstandes zunimmt.

Slati
Nui
Inventar
#40 erstellt: 05. Jun 2014, 14:52
Das hab ich wohl verdient
Supermario
Inventar
#41 erstellt: 05. Jun 2014, 15:01
Nur ganz kurz dazu. Der erhöhte Schärfeeindruck beim verkleinern von Videos am PC mittels diverser Softwareplayer kommt dort ebenfalls von den Skalierungsalgorithmen. Die stecken in den Renderern (VMR, Haali, madVR...) und auch in den Grafkkarten und auch evtl. im Player selbst nochmal. Es ist auch der Standard das beim runterskalieren scharf skaliert wird und beim hochskalieren weich skaliert wird. Das hat sich so eingebürgert. Oft ist es bei den Softwareplayern aber so, das sehr schlicht runterskaliert wird und dadurch das Bild extrem scharf (positiv gemeint) wirkt. Wenn man dann genauer hinsieht sind oft ungewollte Artefakte zu sehen wie Aliasing und Dinge wo mir grad der Name nicht zu einfällt. Dazu kommt dann noch der Supersampling-Effekt der realen Welt, also das Bild wird kleiner und das Gehirn sieht weniger Fehler und das ist angenehm.
Nui
Inventar
#42 erstellt: 05. Jun 2014, 15:11

Supermario (Beitrag #41) schrieb:
Es ist auch der Standard das beim runterskalieren scharf skaliert wird und beim hochskalieren weich skaliert wird.

Ich verwende mit madvr zum runterskalieren den bicubic filter (eigentlich eher "unscharf") und zum hochskalieren Jinc (eher scharf, allerdings ohne ringing). Und eine ähnliche Kombi ist auch standard.
Also ich meine es ist generell eher umgekehrt als du schreibst
Skarpin
Inventar
#43 erstellt: 05. Jun 2014, 15:12

service (Beitrag #32) schrieb:

hagge (Beitrag #28) schrieb:
Wie gesagt, ich habe erst vorletztes Wochenende wieder an einer Vorführung teilgenommen, wo uns echtes 4K-Material auf einem Gerät mit hochskaliertem 2K-Material auf einem zweiten 4K-Gerät nebeneinaner gezeigt wurde. Wir konnten beliebig nahe hingehen und die Bilder vergleichen. Es war wirklich *verblüffend*, wie gut das skalierte Bild war und da waren definitiv mehr Details drin als in einem reinen 2K-Bild.

Die Bezeichnung echtes 4K-Material ist auflösungstechnisch nicht eindeutig, nur filetechnisch definiert. Das verwendete Kamera-Equipment und der gesamte Bearbeitungs-Workflow zu nennen wäre sinnvoller.Es sollte einem auch klar sein, das bei solchen Vorführungen verständlicherweise ähnlich heftig getricks wird, wie diverse Versprechungen auf Kaffee-Fahrten. Das scaliertes Material mehr Details bzw. geometrische Information erzeugt als natives ist physikalisch einfach nicht möglich. Es wäre sonst ein videotechnisches Perpetuum Mobile, das beliebig kaskadierbar wäre und jede weitere Entwicklung bezüglich höherer Auflösung für überflüssig machen würde.
Weil man momentan 4K Geräte verkaufen möchte, es jedoch kein ausreichendes Angebot an 4K-Content gibt, hat man den Anreiz der Auflösungserhöhung durch Scalierung erfunden.
Super erklärt.
Supermario
Inventar
#44 erstellt: 05. Jun 2014, 15:27

Nui (Beitrag #42) schrieb:

Supermario (Beitrag #41) schrieb:
Es ist auch der Standard das beim runterskalieren scharf skaliert wird und beim hochskalieren weich skaliert wird.

Ich verwende mit madvr zum runterskalieren den bicubic filter (eigentlich eher "unscharf") und zum hochskalieren Jinc (eher scharf, allerdings ohne ringing). Und eine ähnliche Kombi ist auch standard.
Also ich meine es ist generell eher umgekehrt als du schreibst :?

Ich skalier immer scharf egal ob hoch oder runter, weils mir besser gefällt. Außer es wird mir zu überscharf, dann halt angepasst. Aber normal wird scharf runter und weich hochskaliert. So gleicht sich auch der Schärfeeindruck wieder aus wenn es wieder zurückskaliert wird und es wird ein Überscharfer Eindruck beim hochskalieren verhindert, welchen ich wie gesagt eher bevorzuge. Dazu wird Aliasing und andere Effekte verringert in iher Wirkung.
Bicubisch kann scharf und weich eingetellt werden.

Das mit den Scalern bei Softwareplayern wollte ich auch nur erwähnen für diejenigen die das nicht wussten.


[Beitrag von Supermario am 05. Jun 2014, 15:30 bearbeitet]
Joe-Han
Inventar
#45 erstellt: 05. Jun 2014, 18:38
Scalieren ist immer verfremden. Kein "intelligenter" Scaler kann alle Bildfehler und gewollte Bildelemente zuverlässig unterscheiden - das ist nun mal Fakt und trifft genauso auf die Zwischenbildberechnung zu, wo nicht wirklich zu 100% ermittelt werden kann, wie das fehlende Bild korrekt ausgesehen hätte.
Ich sage nur mal Filmkorn, Staub-, Schmutzwolken, Explosionen etc. Scharfe Konturen vs. weiche Übergänge etc.

Daneben gibt es weitere Probleme die durch UHD-Auflösungen evtl .noch verstärkt werden: Filme mit Maske (Theaterschminke) werden immer unglaubwürdiger, weil die Maske immer unglaubwürdiger wird. Auch Filme mit mittelmäßiger digitaler Tricktechnik verlieren dadurch eher.

Wie bei Fotoapparaten ist zu vermuten, dass mit steigender Pixeldichte auf den Sensoren der HD-FIlmkameras die Lichtempfindlichkeit sinkt und damit bei schwierigen Lichtverhältnissen das Bild schlechter wird.
George_Lucas
Inventar
#46 erstellt: 05. Jun 2014, 19:02

Joe-Han (Beitrag #45) schrieb:
Scalieren ist immer verfremden. Kein "intelligenter" Scaler kann alle Bildfehler und gewollte Bildelemente zuverlässig unterscheiden.

Das sehe ich auch so.
Wenn ich die Diskussion richtig verfolgt habe, behauptet das hier auch niemand.
Es geht vielmehr darum, dass durch die Hochskalierung neue Artefakte vermieden werden, die auf dem Quellmaterial gar nicht vorhanden sind.
MarcWessels
Inventar
#47 erstellt: 06. Jun 2014, 01:21

hagge (Beitrag #7119) schrieb:
Mir geht es darum, dass bei den heutigen Fernsehern ja noch mehr passiert, als dass nur skaliert wird. Da wird nachgeschärft, da werden Datenbanken eingesetzt, die (im Frequenzspektrum) niedrig auflösende Texturen durch höherauflösende Texturen ersetzen, usw. (...) Und ein Bild, das mehr Details hat, ist meiner Definition nach auch das bessere Bild.

Igitt, die Reality Creation. Ein Bild, das Details hat, die dort nicht hingehören, ist doch kein besseres Bild. Die hochfrequenten hinzugeschusterten Details erdrücken doch geradezu den Rest und das Bild wirkt unecht und unausgewogen.
beehaa
Inventar
#48 erstellt: 06. Jun 2014, 01:51
Die Leute die eine DVD auf dem HDTV besser fanden als auf einem SD-CRT, waren welche die keinen GUTEN CRT hatten. Was sofort besser war, war die Bildgeometrie. Die ist bei den flachen einfach "ideal". Das war mit der Kanone nur in "nahezu sehr gut" machbar.

Kann hier jemand aber etwas nicht nur mit Lanczos, sondern auch mit XinLi, Fractal 5 star, Wiener, Cardinal, Fractal 9 square oder Spline und Jinc anfangen?
Skaliert kann richtig gut sein. Oder, überraschend gut Oder ausreichend/zweckdienlich gut. Es ist aber nie besser als nativ. Das geht einfach nicht. Ich bearbeite Bilder seit etlichen Jahren mit verschiedensten Programmen. Und damit sind keine Fotos in Lightroom&Co. gemeint, aus welchen man Hochspannungsleitungen wegretuschiert. Der Schärfeeindruck ist nie besser.
Der wurde auch bei DVD auf FullHD nicht besser. Das wissen wir doch alle noch. Oder nicht?

Und wenn man der Argumentation von hagge wegen den ganzen Problemen bei Vergleichen zwischen CRT-SD und HD folgt, dann könnte man dem auch zustimmen. DANN stellt sich aber direkt im Anschluss dir Frage, warum ein gleichartiger Vergleich zwischen HD und 4k viel weniger Problematsich sein sollte und es so weitgehend klar ist, HD uaf 4k wird besser aussehen.

Ich kann mich nicht erinnern, daß so es jemals pro HD so aufdringlich mit DVD aka SD argumentiert wurde. Könnte das vielleicht damit zusammenhängen, daß man schon HD-Sender roch und BR auch im Anflug war? Und da für 4k es (wohl noch) kaum etwas gibt, BR auf 4k für das nächste große Ding gehalten werden muß?

Für mich ist das hier erstmal weiterhin nur eine urkomische 4k-Verkaufsveranstaltung. Ob eine PR-virale oder von Privatpersonen die unbedingt wieder etwas aufregend neues brauchen und sich die Welt über Storhhalme schön quatschen, ist zweitrangig.

Dafür tut man noch so, als wenn mit 4k die Lösung eines großes Problems stattfinden würde. Weil was wir als allererstes unbedingt brauchen, sind mehr Details. Nur wenn man einen eingestellten VTW60-55" nimmt (und sei es der Genehmheit wegen ganz leicht Richtung 6700k verschobenen) und dann anfängt die komplette "Mediamarkt-Wand" von 2000€ bis 3000€ einzeln daneben zu stellen und vergleicht, DANN sieht man erst was für ein Kernschrott das alles ist.

Aber mit 4k wird das alles anders. Einfach mehr Auflösung drauf und alle anderen Probleme lösen sich in der Luft auf. Ist klar...

@MarcWessels
Das eine Mal gehe ich mit dir Dafür aber gleich zu 100%


[Beitrag von beehaa am 06. Jun 2014, 03:00 bearbeitet]
celle
Inventar
#49 erstellt: 06. Jun 2014, 08:20

Ich kann mich nicht erinnern, daß so es jemals pro HD so aufdringlich mit DVD aka SD argumentiert wurde.


Es gab da auch schon einen großen Hype um Scaler in DVD-Playern die dann das Bild auf HD-Niveau heben sollten (Reon, Faroudja usw.). Erste Wahl war da immer Denon. Sony war im Allgemeinen über alle Produktgruppen hinweg zu der Zeit eher weniger bei den Enthusiasten und auch Händlern beliebt...
Im HD-Konservenkrieg wurde das Thema von HD-DVD-Verfechtern immer gegenüber den BD-Playern als Argument gebracht, dass die Toshiba-Player beim Scaling von SD-DVD´s deutlich besser waren (was damals gar stimmte). Sony´s(! - das auch Panasonic maßgeblich daran beteiligt war, wurde immer unter den Tisch gekehrt) Blu-ray wurde immer mit Betamax und MiniDisc verglichen und Sony als Fima aufgrund der DRM-Geschichte ging ja sowieso gar nicht. Wie die Zeiten sich doch nun geändert haben ...
BigBubby
Inventar
#50 erstellt: 06. Jun 2014, 08:24
Naja die zeiten sind gleich geblieben. Nicht das bessere, sondern das agressivere Produkt hat sich durch gesetzt. War überall so und ist noch so.
celle
Inventar
#51 erstellt: 06. Jun 2014, 08:38
Zu DVD-Zeiten hatte Sony aber nicht wirklich die besseren Produkte. Die Gründe warum Sony es heutzutage so schlecht geht, sind auf Fehler in dieser Zeit zurückzuführen.
Lautschreiendes Marketing ist aber sicherlich heutzutage ein wohl noch entscheidender Faktor für den Erfolg eines Produktes. Da gebe ich dir durchaus Recht. Der Markt hat sich aber geändert und die Auswahl ist kleiner geworden. All zu viele Hersteller sind halt nicht mehr übrig geblieben aus denen der "traditionelle" Enthusiast wählen kann. Dieses "Umdenken im Kopf" - wie es so ähnlich bei einem Autohersteller heißt - muss da bei einigen noch stattfinden um neue Alternativen anzuerkennen.
Suche:
Gehe zu Seite: Erste 2 3 4 Letzte |nächste|
Das könnte Dich auch interessieren:
HTPC - DVD Skalierung, etc.
Cahliban am 15.05.2008  –  Letzte Antwort am 16.05.2008  –  3 Beiträge
PC SPIELE in 1.280 x 720 auf FULL HD Geräten
smooth-appeal am 07.09.2009  –  Letzte Antwort am 07.09.2009  –  10 Beiträge
4k Signal auf 4 Full HD Tv?
DerNeueImForum am 28.04.2017  –  Letzte Antwort am 01.05.2017  –  4 Beiträge
Problem mit der Auflösung
Tigga2k am 26.12.2009  –  Letzte Antwort am 26.12.2009  –  2 Beiträge
Full-HD ruckelt
Jespa am 01.10.2009  –  Letzte Antwort am 09.10.2009  –  15 Beiträge
HD DVD und Full HD TV
Kai45 am 25.08.2007  –  Letzte Antwort am 27.08.2007  –  11 Beiträge
Sony 40D3550 mit PC Full HD fähig?
supersixtwo am 16.06.2008  –  Letzte Antwort am 19.06.2008  –  11 Beiträge
720p auf Full HD Fernseher
Shaky79 am 01.07.2007  –  Letzte Antwort am 04.07.2007  –  15 Beiträge
Samung Full HD TV -> PC: "Nicht unterstützter Modus"
maerip am 10.10.2009  –  Letzte Antwort am 12.10.2009  –  5 Beiträge
DVB-S TV Karte für Full HD
NikWin am 14.11.2009  –  Letzte Antwort am 14.11.2009  –  2 Beiträge

Anzeige

Aktuelle Aktion

Hersteller in diesem Thread Widget schließen

  • Sony

Forumsstatistik Widget schließen

  • Registrierte Mitglieder821.123 ( Heute: 9 )
  • Neuestes Mitgliedarrow-pfeil
  • Gesamtzahl an Themen1.371.446
  • Gesamtzahl an Beiträgen18.121.858