Ein paar Fragen zu UHD.

+A -A
Autor
Beitrag
Hifi-Nerd1234
Ist häufiger hier
#1 erstellt: 16. Jan 2016, 22:15
Guten Abend,




ich möchte mir ein UHD Tv kaufen. Ich bekomme mein Tv signal über IPTV, mit HD.

Bringt dann überhaupt ein UHD Tv was, wenn "nur HD" abgespielt wird?

Ein Kumpel meint, dass das Bild im Laden nur so gut aussieht, weil die ein UHD Signal einspeisen. Stimmt das? Ist das Bild mit einem UHD TV nicht besser als mit einem HD Tv, wenn das selbe Signal eingesperrt wird?

Bitte um Informationen. Gibts einen Thread oder eine Seite wo man sich einlesen kann?


Ciao

Hifi Nerd.
kay1212
Inventar
#2 erstellt: 16. Jan 2016, 22:25
Im Laden laufen Propaganda Viodeos , die dich beeinflussen sollen , daheim haste wenn überhaupt Full Hd und das viel zu oft , nur hoch gerechnetes Material . Ich habe mir deswegen , einen letzten Oberklasse/Spitzenklasse Full Hd von Samsung gekauft ....Neu und original Verpackt .....nen 55" ue 55 h 8090 von Samsung und selbst das aktive 3 d , bereitet mir keine Probleme und finde es gleichwertig - bis besser , wie mein vorheriger 55" LM 860 von LG . Gruß Kay


[Beitrag von kay1212 am 16. Jan 2016, 22:29 bearbeitet]
eraser4400
Inventar
#3 erstellt: 17. Jan 2016, 13:54
Liegt einfach daran, das dass Aktive tatsächlich das qualitativ bessere 3D ist, weshalb es auch meist in den TVs der Spitzen u. High-End-Klasse verbaut ist.
Beipackstrippe
Hat sich gelöscht
#4 erstellt: 17. Jan 2016, 14:27
Merkwürdig, gerade den Spitzen/High-End OLEDs attestiert die etwas seriösere TV-Testlandschaft das beste, jemals auf einem TV Gerät gesehene 3D.
Robby_(Munich)
Stammgast
#5 erstellt: 17. Jan 2016, 16:22
Zuhause hab ich noch einen Plasma von Pana stehen. Der macht ein besseres Bild als die heutigen LCD/LED TVs.
Insbesondere sind die Schwarzwerte bei den LCD TV noch immehr schlecht gegenüber Plasma oder OLED, genauso wie der seitliche Kontrast. Daher kehrt langsam die Industrie LCD den Rücken, und wendet sich OLED zu.
Zudem kommt momentan andauernd ein neuer Standard. Wer einen UHD TV bereits gekauft hat, hat schon jetzt ein altes Gerät, da das neue UHD Prämium wieder besser ist.
Meiner Ansicht muss man noch ein wenig warten, bis Standards gesetzt und die OLED erschwinglicher sind. Ansonsten ist es rausgeworfenes Geld.


[Beitrag von Robby_(Munich) am 17. Jan 2016, 16:28 bearbeitet]
kay1212
Inventar
#6 erstellt: 17. Jan 2016, 18:05
Hallo , aktives 3 d , muss man aber relativieren , ich hatte vor Jahren einen LG PM 670 in 50" , mit aktiven 3 d und da taten mir und meiner Freundin und Freunden , nach etwa 1,5-2 Stunden auch die Augen weh , darum hatte ich mir ja den LG LM 860 in 55" , mit passiven 3d gekauft ....alles bestens , jetzt wiederrum , bei meinem Samsung ue 55 h 8090 , mit aktiven 3d ........ Begeisterung pur . Liegt eben doch an der Preisklasse , des Tv
Klausi4
Inventar
#7 erstellt: 17. Jan 2016, 18:43

kay1212 (Beitrag #6) schrieb:
... jetzt wiederrum , bei meinem Samsung ue 55 h 8090 , mit aktiven 3d - Begeisterung pur . Liegt eben doch an der Preisklasse des Tv


Du hast die Stellungnahme oben von "Beipackstrippe" gelesen? Das kann ich aus eigener Erfahrung nur unterstreichen, oder sind 4000 Euro für einen aktuellen UHD-OLED unter Deiner Preisklasse?
kay1212
Inventar
#8 erstellt: 17. Jan 2016, 20:01
nein , ich meinte das so , das der 50" Plasma ,welcher ja günstig in der Anschaffung war , ein schlecht umgesetztes 3d hatte und man Augenschmerzen bekam . Mit dem Samsung haben wir schon bis zu 3 3d Filme hintereinander geschaut und alles bestens . Ich war ja erst Skeptich , ob der wechsel von passiven3d (LG LM 860) zum aktiven des jetzigen Samsung , nicht wieder Nachteile mit sich bringt . Oled mit passiven 3 d wird sicherlich super sein ....ist eben wieder ein hochpreisiges Gerät . Habe aber schon von billigen UHD Geräten gehört , wo das 3d absolut Grottig sein soll .....somit liegt es immer an der Preisklasse
Beipackstrippe
Hat sich gelöscht
#9 erstellt: 17. Jan 2016, 20:13
Du hast ja auch einen erstklassigen 200Hz TV. Dort wurde anscheinend noch Wert auf eine anständige Shutterwiedergabe gelegt. Nichtsdestotrotz ist passiv in Full-HD der Schritt nach oben.
kay1212
Inventar
#10 erstellt: 17. Jan 2016, 21:06
da muss ich recht geben ....... ein weiterer punkt , ist ja auch der Preis der Brillen
eraser4400
Inventar
#11 erstellt: 18. Jan 2016, 11:11
Eure Meinung. Meine GANZ SICHER nicht.


[Beitrag von eraser4400 am 18. Jan 2016, 11:11 bearbeitet]
hagge
Inventar
#12 erstellt: 18. Jan 2016, 11:39

Robby_(Munich) (Beitrag #5) schrieb:
Zuhause hab ich noch einen Plasma von Pana stehen. Der macht ein besseres Bild als die heutigen LCD/LED TVs.

Geschmackssache. Ich finde das nicht.


Insbesondere sind die Schwarzwerte bei den LCD TV noch immehr schlecht gegenüber Plasma oder OLED, genauso wie der seitliche Kontrast. Daher kehrt langsam die Industrie LCD den Rücken, und wendet sich OLED zu.

Naja, das ist aber eine sehr subjektive Wahrnehmung von Dir. Ich kann das nämlich nirgendwo sehen, dass sich die Hersteller von LCD abwenden. Samsung? Nein. Sony? Nein. Sharp? Nein. Hisense? Nein. Philips? Nein. Grundig? Nein. Beko? Nein. Loewe? Nein. Panasonic? OK, ein einziger OLED für 10000 EUR im Sortiment, der Rest LCD. Metz/Skyworth? OK, da wurde mal was gesagt, aber bisher noch kein Modell zu sehen. Einzig und alleine LG macht richtig was bei OLED. Aber dass da schon eine allgemeine Abkehr von LCD zu sehen ist, kann ich zumindest momentan noch nicht erkennen. Wenn es überhaupt bei einem Hersteller OLED gibt, dann nur als ersten kleinen Versuchsballon.


Zudem kommt momentan andauernd ein neuer Standard. Wer einen UHD TV bereits gekauft hat, hat schon jetzt ein altes Gerät, da das neue UHD Prämium wieder besser ist.

Das liegt in der Natur der Sache, dass sich die Technik weiterentwickelt. Das war aber auch noch nie nennenswert anders. Vor ein paar Jahren war es 3D, davor war es Full-HD. Jetzt war es UHD und künftig ist es HDR. Und dann fällt denen wieder was neues ein. Wenn man immer abwartet, kommt man nie zu einem neuen Gerät.

Gruß,

Hagge


[Beitrag von hagge am 18. Jan 2016, 11:43 bearbeitet]
Hansi_Müller
Inventar
#13 erstellt: 18. Jan 2016, 13:38

eraser4400 (Beitrag #3) schrieb:
Liegt einfach daran, das dass Aktive tatsächlich das qualitativ bessere 3D ist, weshalb es auch meist in den TVs der Spitzen u. High-End-Klasse verbaut ist. ;)


Das ,meinst aber nur du. Passives 3D auf einem 4K OLED von LG ist Klasse.
eraser4400
Inventar
#14 erstellt: 18. Jan 2016, 16:15
Schon mal Aktives auf nem OLED gesehen?

Das ,meinst aber nur du.
>Ach, du meinst, so wie NUR DU meinst, das Passives besser wäre?


[Beitrag von eraser4400 am 18. Jan 2016, 16:24 bearbeitet]
Slatibartfass
Inventar
#15 erstellt: 18. Jan 2016, 16:40

Hifi-Nerd1234 (Beitrag #1) schrieb:
Ist das Bild mit einem UHD TV nicht besser als mit einem HD Tv, wenn das selbe Signal eingesperrt wird?

Warum sollte es HD-Material auf einem UHD besser sein? Die Bildschärfe wird gesteigert durch die höhere Auflösung des UHD-Materials, für deren Wiedergabe ein UHD-TV erforderlich ist. HD-Material wird nur hochskalliert, damit es Bildschirmfüllend auf dem UHD-TV dargestellt werden kann. Gute UHD-TV versuchen dabei so weinge Fehler wie möglich zu machen, um keine Verschlechterung durch die Skallierung hinnehmen zu müssen. Aber besser wird es nicht, da die Bildinformationen nunmal auf HD-Auflösung beschränkt sind.

Wenn Hersteller behaupten, dass HD-Material auf ihrem UHD-TV besser aussehen als auf einen HD-TV ist das Marketing, da ihnen mangels nativem UHD-Materials sonst die Argumente ausgehen wurden, warum man als normaler TV-Zuschauer einen UHD-TV kaufen sollte. Zudem ist zu berücksichtigen, dass auch bei echtem UHD-Matrial der Vorteil gegenüber HD erst ab einer gewissen Bilddiagonale unter einem bestimmten Sitzabstand überhaupt sichtbar wird.

Slati
Merzener
Inventar
#16 erstellt: 18. Jan 2016, 16:54
Durch Upscaling finde ich aber sehr wohl, dass einiges (nicht alles!) besser aussieht, wie auf einem FullHD Gerät.
Es ist nicht alles nur Marketing...es ist nun auch keine Evolution, aber ich finde es besser und ein FHD Gerät würde ich persönlich nicht mehr kaufen!
hagge
Inventar
#17 erstellt: 18. Jan 2016, 17:05

Slatibartfass (Beitrag #15) schrieb:
Warum sollte es HD-Material auf einem UHD besser sein?

Weil durch eine intelligente Skalierung Schärfe gewonnen werden kann. Der entscheidende Punkt ist dabei das "intelligent". Werden einfach nur die Pixel verdoppelt, dann verbessert sich natürlich nichts. Die Skalierungen heute sind aber verdammt gut und kitzeln wirklich Schärfe aus dem Bild heraus.


HD-Material wird nur hochskalliert, damit es Bildschirmfüllend auf dem UHD-TV dargestellt werden kann. Gute UHD-TV versuchen dabei so weinge Fehler wie möglich zu machen, um keine Verschlechterung durch die Skallierung hinnehmen zu müssen.

Korrekt.


Aber besser wird es nicht, da die Bildinformationen nunmal auf HD-Auflösung beschränkt sind.

Falsch. Es wird sehr wohl besser. Es kommt natürlich *nicht* an natives 4K-Material heran, aber es ist besser als auf einem 2K-Fernseher.


Wenn Hersteller behaupten, dass HD-Material auf ihrem UHD-TV besser aussehen als auf einen HD-TV ist das Marketing

Nein, es ist nicht nur Marketing.


Gruß,

Hagge


[Beitrag von hagge am 18. Jan 2016, 17:06 bearbeitet]
Slatibartfass
Inventar
#18 erstellt: 18. Jan 2016, 18:25
Da frage ich mich aber wirklich, was für praxisrelevanten Schärfevorteile aus HD-Material noch durch ein "intelligente" UHD-Skallierung herausgeholt werden sollen, wenn selbst der Vorteil von nativem UHD-Matrial nur unter bestimmten Voraussetzungen (Bilddiagonale, Sitzabstand) sichtbar wird.

Intelligent ist für mich übrigens kein technisches System. Intelligent waren höchstens die Entwickler, die die Allgorithmen entwickelt haben, die dann das System stur (nicht intelligent) abarbeitet. Was anderes können technische Systeme nämlich nicht.

Slati
*Hwoarang*
Stammgast
#19 erstellt: 18. Jan 2016, 19:05
Wer Ahnung von Bildbearbeitung hat, der weiß, dass das Hinzufügen von nicht vorhandenen Informationen (Bildpunkten) immer schlechter ist als ein natives Bild. Egal welchen Algorithmus man zum Hochrechnen verwendet.

Vergleicht mal ein auf HD hochgerechnetes DVD-Bild mit einem 1080p BD-Bild.

Das ist bei alles digitalen Dateien so.

Ansonsten könnte man aus einer schlechten mp3 ja auch eine tolle ALAC Datei machen.

Ich persönlich versuche immer native Bilder zuzuspielen.
Habe ich kein qualitativ hochwertiges Material, so lohnt sich auch nicht die Anschaffung eines höher auflösenden Panels.
theltalpha
Ist häufiger hier
#20 erstellt: 18. Jan 2016, 23:37

*Hwoarang* (Beitrag #19) schrieb:
Vergleicht mal ein auf HD hochgerechnetes DVD-Bild mit einem 1080p BD-Bild.

Da hast du die Beispiele über dir falsch verstanden. Es ging nicht darum, ob ein auf HD hochgerechnetes DVD-Bild besser aussieht, als ein 1080p-BD-Bild (das tut es natürlich nicht und hat auch keiner behauptet). Es ging darum, dass ein auf HD hochgerechnetes DVD-Bild besser aussieht als ein nicht auf HD-hochgerechnetes DVD-Bild.
hagge
Inventar
#21 erstellt: 18. Jan 2016, 23:47

Slatibartfass (Beitrag #18) schrieb:
Da frage ich mich aber wirklich, was für praxisrelevanten Schärfevorteile aus HD-Material noch durch ein "intelligente" UHD-Skallierung herausgeholt werden sollen, wenn selbst der Vorteil von nativem UHD-Matrial nur unter bestimmten Voraussetzungen (Bilddiagonale, Sitzabstand) sichtbar wird.

Au mann, was sollen solche Einwände? Natürlich gehe ich bei so einer Aussage davon aus, dass man sich so nah vor den TV setzt, dass man diese Veränderungen auch noch sehen kann. Alles andere macht doch gar keinen Sinn. Also: man nehme einen 4K-TV.mit einer gewissen Diagonale x. Da setze man sich so davor, so dass man die volle Vielfalt von 4K genießen kann, also 1 bis 1,5-fache Diagonale. Dann nehme man eine 2K-Bildquelle und spiele sie auf diesem Gerät ab. Dann sieht die aus dieser Entfernung auf diesem Gerät eben besser aus als wenn man in gleicher Entfernung vor einem Full-HD-Gerät mit gleicher Diagonale x säße, und die Bildquelle dort abspielte.


Intelligent ist für mich übrigens kein technisches System. Intelligent waren höchstens die Entwickler, die die Allgorithmen entwickelt haben, die dann das System stur (nicht intelligent) abarbeitet. Was anderes können technische Systeme nämlich nicht.

Schon klar. Aber mit intelligent meinte ich jetzt, dass da nicht nur eine mehr oder weniger dumme Pixelvervielfachung mit Nachschärfung passiert. Sondern dass da z.B. datenbankbasierte Ansätze wie die RealityCreation von Sony oder ähnlich clevere Systeme wie z.B. die Skalierung von Darby zum Einsatz kommen, die üblicherweise auf der Superresolution-Technik aufbauen.


*Hwoarang* (Beitrag #19) schrieb:
Wer Ahnung von Bildbearbeitung hat, der weiß, dass das Hinzufügen von nicht vorhandenen Informationen (Bildpunkten) immer schlechter ist als ein natives Bild. Egal welchen Algorithmus man zum Hochrechnen verwendet.

Nichts anderes habe ich gesagt. Ich habe doch ganz deutlich gesagt, dass so eine Skalierung *nicht* an natives 4K-Material herankommt. Nur dass derartig skaliertes 2K-Material besser aussieht (aussehen kann, je nach Hersteller) als das gleiche 2K-Material auf einem 2K-TV.

Gruß,

Hagge
sumpfhuhn
Inventar
#22 erstellt: 19. Jan 2016, 00:51

hagge (Beitrag #21) schrieb:
also 1 bis 1,5-fache Diagonale.


Hallo
Seit Einführung der DVD gilt aber nicht mehr die Diagonale.
Der Abstand errechnet sich aus der Bildhöhe.
SD(DVD) = 5x Bildhöhe.
HD(BD) = 3x Bildhöhe.
UHD = 1,5 x Bildhöhe.
Und zwar nur das Sichtbare Bild, heißt: bei Scope sind die Balken abzuziehen.

In meinem Fall rechnet sich das wie folgt.
Bei meiner 21:9 Leinwand beträgt die Bildhöhe 1.04m, mein Sitzabstand beträgt bei HD ca.3.0m. SD gibt es hier nicht.
Wenn ich jetzt auf UHD wechseln würde, müsste ich bis auf 1.5m näher zur Leinwand, um einen erkennbaren Unterschied zu Sehen. So Sieht selbst aus unserem Forum kein Mensch.
Dann kommt noch ein wichtiger Nachteil hinzu, man kann kein vernünftiges Lautsprechersetup installieren.
Lass ich alles so wie es ist(was ich natürlich auch tun werde), bekomme ich von der höheren Auflösung nichts mit, weil nicht Sichtbar.
Es kann bei UHD nur HDR punkten, nicht die Auflösung bei gleichbleibenden Abstand, näher ran geht ja nicht.
hagge
Inventar
#23 erstellt: 19. Jan 2016, 03:51

sumpfhuhn (Beitrag #22) schrieb:
Seit Einführung der DVD gilt aber nicht mehr die Diagonale.

Wer sagt das? Ich kenne nur die Rechnung mit der Diagonalen. Macht auch mehr Sinn, denn Unterschiede bei 4K kann man auch aus diesen Entfernungen noch sehr deutlich sehen.

4:3 SD: 7x bis 5x Diagonale
16:9 SD: 5x bis 3x Diagonale
16:9 FHD: 3x bis 1,5x Diagonale
16:9 UHD: 1,5x bis unter 1x Diagonale


Und zwar nur das Sichtbare Bild, heißt: bei Scope sind die Balken abzuziehen.

Und das zeigt doch, dass diese Rechnung nicht stimmt. Die Auflösung des Bildes wird ja nicht besser, nur weil ein paar Pixel unten und oben schwarz sind. Insofern macht es auch keinen Sinn, in diesem Fall näher ranzugehen.


In meinem Fall rechnet sich das wie folgt.
Bei meiner 21:9 Leinwand beträgt die Bildhöhe 1.04m, mein Sitzabstand beträgt bei HD ca.3.0m. SD gibt es hier nicht.
Wenn ich jetzt auf UHD wechseln würde, müsste ich bis auf 1.5m näher zur Leinwand, um einen erkennbaren Unterschied zu Sehen. So Sieht selbst aus unserem Forum kein Mensch.

Bei meiner Rechnung könntest Du bis zu 4m weg sitzen und würdest noch einen Unterschied bei 4K sehen. Und das erscheint mir auch korrekt so. Oder anders ausgedrückt, bei den momentanen 3m würdest Du schon sehr wohl einen signifikanten Unterschied sehen, wenn Du einen 4K-Beamer hättest.

Gruß,

Hagge
sumpfhuhn
Inventar
#24 erstellt: 19. Jan 2016, 08:44

hagge (Beitrag #23) schrieb:

sumpfhuhn (Beitrag #22) schrieb:
Seit Einführung der DVD gilt aber nicht mehr die Diagonale.

Wer sagt das?


Nur ein Beispiel: http://www.cinegrell.ch/downloads//Manuals%20Divers/HD_Manuals/HD%20Setup%20Manuals/FOCAL-Workshop-%28ges%29.pdf:

Du weißt wie man Googelt .
Der Rest von Dir, ist MM Slang.
hagge
Inventar
#25 erstellt: 19. Jan 2016, 10:58
Ich weiß, dass in letzter Zeit immer wieder mal die Höhe als Referenz genommen wird. Aber mal ehrlich, das ist doch Murks und total unpraktisch. Denn bei *allen* Angaben zu den Fernsehern stehen zuerst mal nur die Diagonalen. Und da die Diagonale immer proportional zur Bildhöhe ist (bei gegebenem Bildformat 16:9), kann man genauso gut auch die Bilddiagonale als Referenz nehmen. Es ist dann eben nur der Faktor leicht anders. Insofern ist die Angabe der Bildhöhe einfach nur unpraktisch, weil Leuten, die nach solchen Abstandsregeln suchen, die Bildhöhe i.a. nicht bekannt ist, sondern nur die Diagonale.

Wenn man dann aber die tatsächlich genutzte Bildhöhe als Maß nimmt, wie Du es sagst, dann ist das meiner Meinung nach regelrecht falsch. Denn wie gesagt ändert sich ja die Auflösung nicht, wenn ein paar Zeilen davon als schwarze Balken genutzt werden. Also darf man bei einem Breitwandfilm auch nicht näher an die Leinwand ran, obwohl sich die genutzte Bildhöhe dabei reduziert,

Und das mit dem Googeln ist ja keine wirkliche Lösung für meine Frage. Da findet man genauso viele oder noch mehr Seiten, die den Abstand relativ zur Diagonalen angeben. Was ja wie gesagt prinzipiell eigentlich auch egal ist, nur ist eben die Diagonale viel praktischer.

Dann wird zudem oft ein Fehler gemacht, indem die Leute einen *Mindestabstand* angeben, also einen Abstand der mindestens einzuhalten ist, damit man nicht einzelne Zeilen oder Pixel sieht. Verbesserungen zu einem schlechteren Format sieht man aber durchaus auch schon bei größeren Entfernungen. Und wenn ich bei Deiner großen Leinwand sage, dass man da aus Deiner Sitzentfernung schon eine Verbesserung bei 4K sieht, dann ist das nicht nur so daher gesagt. Ich habe schon auf mehreren Workshops und Messen die 4K-Beamer von Sony in Aktion gesehen und auch schon oft 4K-TVs im Vergleich zu Full-HD-TVs gesehen. Und da sieht man aus erstaunlich großem Abstand noch einen deutlichen Unterschied.

Und ich hatte wirklich gerechnet. Deine Leinwandhöhe ist 1,04m. Bei Seitenverhältnis 21:9 ist die Bildbreite also 1,04m*21:9 = 2,43m. Daraus folgt die Diagonale zu SQRT(1,04² + 2,43²) = 2,64m. Und mit meinem Faktor von maximal 1,5x Diagonale für 4K ergibt sich daraus ein möglicher Sitzabstand von bis zu 3,96m. Wenn Du also näher dran sitzt, wie Deine 3m, profitierst Du aus meiner Sichtweise von 4K. Wobei diese Rechnung sogar schon zu niedrig gegriffen ist. Denn da man ja eigentlich nicht 21:9, sondern nur 16:9 als Referenz nehmen darf, da die Auflösungen ja für 16:9 gelten, müsste man eigentlich die Diagonale für eine theoretische Leinwand nehmen, die bei gleicher Bildbreite 16:9-Format hätte. Diese hätte bei 2,64m Breite also die Höhe 1,49. Und damit käme man auf die Diagonale von 3,20. Und damit sogar auf einen möglichen Sitzabstand von 4,80m. Aber gut, betreiben wir keine Haarspalterei.

Da darfst Du gerne anderer Meinung sein, aber bisher deckte sich meine Rechnung immer sehr gut mit der Praxis.

Gruß,

Hagge
sumpfhuhn
Inventar
#26 erstellt: 20. Jan 2016, 00:07

hagge (Beitrag #25) schrieb:
Ich weiß, dass in letzter Zeit immer wieder mal die Höhe als Referenz genommen wird.


Hallo
Die letzte Zeit, hält aber schon 20 Jahre an .
Schon bei meiner ersten Referenz DVD von Burosch, galt die Bildhöhe als Referenz.
Sei es drum, ich habe für meinem Hörraum die Endlösung realisiert.
Max. machbare Bildgröße, unter Berücksichtigung des Raumes und der Lautsprecheraufstellung, kann weder vor noch zurück mit Referenzplatz,der liegt bei 3m zur Leinwand.
hagge
Inventar
#27 erstellt: 20. Jan 2016, 10:47

sumpfhuhn (Beitrag #26) schrieb:
Die letzte Zeit, hält aber schon 20 Jahre an .

Das kann ich nicht nachvollziehen. Auf allen Webseiten, die ich den letzten 20 Jahren geschaut habe, wurde die Diagonale verwendet. Mir sind die Angaben relativ zur Höhe erst im letzten Jahr aufgefallen.

Ich werde es auf jeden Fall beibehalten, Abstandsangaben relativ zur Diagonale anzugeben. Da dies die häufigste Angabe zur Größe der Geräte ist und ja sogar meist in der Modellbezeichnung enthalten ist, ist es meiner Meinung nach die einzig sinnvolle Weise, solche Entfernungen anzugeben.

Gruß,

Hagge


[Beitrag von hagge am 20. Jan 2016, 10:51 bearbeitet]
Bremer
Inventar
#28 erstellt: 22. Jan 2016, 17:35
Also ich sitze gute 3 m von meinem 65 Zoll (1,65 m) FHD Plasma entfern. Egal ob ich von der Bildhöhe oder der Diagonale ausgehe, ist das ziemlich optimal. Und ich will und kann nicht meine Sitzlandschaft ständig verrücken je nachdem, ob ich einen Film mit oder ohne Cinemascope Balken sehe. Wenn ich jetzt statt eine FHD TV einen gleich großen UHD TV hätte, bin ich sicher, dass ich bei nativem UHD Material auch auf diese Entfernung einen (positiven) Unterschied sehen werde. Und wenn ich mir dereinst eine UHD TV anschaffen werde, dann werde ich den Sitzabstand auch ganz sicher nicht verändern.

Aber: dass ein hochskaliertes FHD Material auf einem UHD auflösungsbedingt besser aussieht, glaube ich im Leben nicht. Und zwar egal, wie nah ich an den TV herangehe. Fakt ist doch, dass das FHD Materail aus 1920 * 1080 Bildpunkten besteht. D.h. bei der Aufnahme wurde das Bild in 2,073 Mio. Bildpunkte im Verhältnis 1920 : 1080 zerlegt und bei der Wiedergabe werden exakt diese Bildpunkte wieder zu einem ganzen Bild zusammengeführt (laienhaft ausgedrückt). Beim hochskalieren, werden diese Bildpunkte aber ja nicht um weiter 2,073 Mio. neue Bildpunkte ergänzt, sondern es werden nur die vorhandenen Bildpunkte vervielfacht. Das kann nicht dazu führen, dass ich mehr oder feinere Details erkenne als vorher. Eher im Gegenteil, ich werde Bildfehler, z.B unsaubere Pixel, die vervielfacht wurden, eher sehen als auf dem FHD TV, das Bild wird also eher schlechter wirken. Wenn ich das Bild aber ursprünglich bei der Aufnahme in 8,294 Mio. Bildpunkte im Verhältnis 3840 : 2160 zerlege und es dann auf dem UHD wieder zusammenführe, dann und nur dann werde ich mehr und feinere Details erkennen können.

Die Behauptung FHD Material sähe auf einem UHD TV auflösungsbedingt besser oder schärfer aus ist also m.E. blanker Unsinn. Was sein kann, ist dass z.B. bei der Farbewidergabe andere Techniken (z.B. 10 Bit Processing) eingesetzt werden, die das Bild kontrastreicher oder lebhafter aussehen lassen. Das hat dann aber nichts mit der Auflösung, also UHD oder FHD zu tun.
*Hwoarang*
Stammgast
#29 erstellt: 22. Jan 2016, 17:55
Bremer hat vollkommen Recht!
skippy100
Stammgast
#30 erstellt: 22. Jan 2016, 19:14
Nein, da halt nicht einfach die Pixel vervielfacht werden.

Und selbst wenn, würden die Bildfehler nicht größer, da bei gleich großem Bildschirm die 4 Pixel des UHD die gleiche Fläche ausfüllen wie das 1 Pixel des FHD.
*Hwoarang*
Stammgast
#31 erstellt: 22. Jan 2016, 19:28

skippy100 (Beitrag #30) schrieb:
Nein, da halt nicht einfach die Pixel vervielfacht werden.

Und selbst wenn, würden die Bildfehler nicht größer, da bei gleich großem Bildschirm die 4 Pixel des UHD die gleiche Fläche ausfüllen wie das 1 Pixel des FHD.


Öffne mal Photoshop und rechne ein Bild von 2k auf 4k hoch. Egal welchen Algorithmus du nimmst, das Ergebnis ist nie so gut, wie bei einem nativen Bild.
Kann es auch nicht, da fehlende Informationen durch berechnete ersetzt werden.

Und nun stell dir mal vor das Signal ist nicht so gut wie von BD und es sind Fehlerchen drin. Was macht dann der Algorithmus???
Schau dir mal auf einem FH-TV ein 720er SD TV-Signal an, dann weißt du was ich meine.
Selbst für ein HD-TV-Programm reicht mir ein alter HD ready TV, da brauche ich keinen FH-TV.

Vielleicht verlieren wir auch aus den Augen, dass es um die absolute Auflösungsqualität des Bildes geht.

edit: Ich bin immer für ein natives Signal, wenn es möglich ist.


[Beitrag von *Hwoarang* am 22. Jan 2016, 19:30 bearbeitet]
hagge
Inventar
#32 erstellt: 22. Jan 2016, 20:04

Bremer (Beitrag #28) schrieb:
Fakt ist doch, dass das FHD Materail aus 1920 * 1080 Bildpunkten besteht. D.h. bei der Aufnahme wurde das Bild in 2,073 Mio. Bildpunkte im Verhältnis 1920 : 1080 zerlegt und bei der Wiedergabe werden exakt diese Bildpunkte wieder zu einem ganzen Bild zusammengeführt (laienhaft ausgedrückt).

Korrekt.


Beim hochskalieren, werden diese Bildpunkte aber ja nicht um weiter 2,073 Mio. neue Bildpunkte ergänzt, sondern es werden nur die vorhandenen Bildpunkte vervielfacht.

Nein. Die Pixelvervielfachung machen nur einfache Algorithmen. Eine gute Skalierung macht viel viel mehr. Üblicherweise wird das Bild in den Frequenzbereich transformiert und dann werden dort entsprechende Algorithmen angewendet. Was da heraus kommt ist schon viel mehr als nur eine Pixelvervielfachung. Da werden wirklich Pixel mit Zwischenfarben hinzugefügt.

Und dann kommt der Punkt, den ich als "intelligente" Skalierung bezeichnet habe. Nehmen wir mal ein Beispiel. Das Originalbild hat eine Kante unter genau 45 Grad. Das heißt die Pixel dieser Trennlinie stoßen immer Diagonal an der Ecke aneinander an. Wenn man nun einfach die Pixel verdoppelt, dann würde das bedeuten, dass nun immer jedes originale Pixel durch vier der kleineren Pixel ersetzt wird. Die Kante besteht nun also immer aus Pixelgruppen, die in der Anordnung 2x2 diagonal aneinander anstoßen. Wenn man es so macht, sieht es genauso grob aus, wie vorher. ein Algorithmus kann nun aber erkennen, dass es sich hier um eine diagonale Kante handelt und kann dann im höher aufgelöste Bild entsprechend den 4x4-Block korrigieren und die Kante sauber mit den kleineren Pixeln fortsetzen. Und schon haben wir im Zielbild keine grobe Treppe mit Stufen von 2 Pixeln, sondern nur noch eine feine Linie mit 1-Pixel großen Stufen.

So etwas in der Art macht (vereinfacht gesprochen) zum Beispiel der Skalierungsalgorithmus Lanczos, den man in jedem besseren Bildbearbeitungsprogramm auswählen kann (z.B. IrfanView, Gimp, Photoshop). Hier mal ein Beispiel. Ich habe ein Originalbild mit geringer Auflösung. Das vergrößere ich einmal auf die vierfache Auflösung (doppelt so breit und doppelt so hoch), indem ich einfach nur die Pixel verdoppele. Dann kommt dieses erste Bild heraus.

Verdoppelt

Und jetzt vergrößere ich das gleiche Originalbild, indem ich es durch den Lanczos-Algorithmus schicke. Dann kommt dieses zweite Bild heraus.

Lanczos

(Diese Bilder bitte anklicken und auf "Herunterladen" klicken, die Vorschau hier skaliert die Bilder nochmal, da sieht man das nicht so deutlich, wie in der Originalgröße).

Wie Du siehst sind die Treppeneffekte an den Kanten deutlich geringer.

Schon dieses einfache Beispiel zeigt, dass eben schon was zu machen ist, wenn man mehr Pixel zur Verfügung hat. Aber die Hersteller gehen zum Teil noch weiter. Sony nutzt für so etwas die Reality Creation. Das ist eine sehr große Datenbank, in der viele viele Frequenzmuster hoher Auflösung hinterlegt sind zusammen mit einer heruntergerechneten niedrigeren Auflösung. Diese niedrig aufgelösten Muster werden nun im ursprünglichen Bild gesucht und dann im hochskalierten Bild mit dem dazugehörenden höher aufgelösten Frequenzmuster ersetzt. Dadurch kommen weitere Details bzw. zusätzliche Bildschärfe ins Bild rein.


Das kann nicht dazu führen, dass ich mehr oder feinere Details erkenne als vorher.

Doch, das geht. Nur weil Du es Dir nicht vorstellen kannst, heißt das nicht, dass es nicht geht. Da beschäftigen sich in der Zwischenzeit ganze Wissenschaftszweige damit.

Mit solchen datenbankbasierten Skalierungsverfahren, der sogenannten beispielbasierten Superresolution-Technik, lässt sich erstaunliches machen. Schau beispielsweise hier bei Wikipedia, oder hier ein Folienvortrag als PDF. Das ist zum Teil echt verblüffend, was da geht.

Nur mal ein Beispiel aus dem obigen PDF. Das linke Bild ist das Eingangsbild, das rechte Bild wurde rein durch die Musterbeispiele aus der Datenbank herausgearbeitet. Und da ist definitiv mehr zu sehen als auf dem linken Bild.

Example-Based-Superresolution

Falls Dich das Thema noch ausführlicher interessiert, wir hatten das schon mal vor längerer Zeit in diesem Thread diskutiert.

Gruß,

Hagge
hagge
Inventar
#33 erstellt: 22. Jan 2016, 20:21

*Hwoarang* (Beitrag #31) schrieb:
Öffne mal Photoshop und rechne ein Bild von 2k auf 4k hoch. Egal welchen Algorithmus du nimmst, das Ergebnis ist nie so gut, wie bei einem nativen Bild.

Halt stopp. Natürlich ist ein von 2K auf 4K hochskaliertes Bild nie so gut wie ein natives 4K-Bild. Das hat auch niemand behauptet. Darum geht es auch gar nicht. Wenn man die Wahl zwischen nativem 4K-Material und auf 4K hochskalierten 2K-Material hat ist immer das native Material das bessere, das steht außer Frage,

Es geht darum, ein 2K-Bild auf einem 2K-Fernseher zu vergleichen mit dem gleichen Bild, das für einen 4K-Fernseher gleicher Bilddiagonale auf 4K hochskaliert wurde. Und da behaupte ich und viele andere, dass dieses skalierte Bild besser aussieht. Das wird Dir jeder Besitzer eines 4K-TVs bestätigen.

Du darfst auch nicht das unskalierte Bild und das skalierte Bild bei gleicher gegebener Auflösung betrachten. Da hat das unskalierte Bild ja nur die halbe Breite und Höhe und sieht dann aufgrund der geringeren Größe auch wieder schärfer aus. Das ist auch logisch. Darum hinkt Dein Vergleich mit Photoshop ja auch. Du musst doch die unterschiedliche Auflösung bei gleicher Bildgröße (Diagonale) vergleichen. Das Originalbild mit halber Größe haben wir doch nie, sondern wir hätten das Originalbild auf dem 2K-Fernseher, und das ist aufgrund der doppelt so breiten und doppelt so hohen Pixel genauso groß wie das hochskalierte Bild auf dem 4K-TV. Das 2K-Bild auf dem 2K-TV sieht dann in etwa so aus wie oben das erste Bild. Und daneben hätten wir das auf 4K skalierte Bild auf dem 4K-TV, und das würde in etwa so aussehen wie oben das zweite Bild. Damit genau dieser irreführende Vergleich gar nicht erst gemacht wird, habe ich ganz bewusst nicht das originale Bild gezeigt, sondern nur die gleichgroßen Bilder, wie man sie auf den zu vergleichenden Fernsehern sehen würde.

Und was ist nun besser? Das erste Bild oder das zweite Bild?

Gruß,

Hagge


[Beitrag von hagge am 22. Jan 2016, 20:31 bearbeitet]
*Hwoarang*
Stammgast
#34 erstellt: 23. Jan 2016, 02:50
Okay, neuer Ansatz.


hagge (Beitrag #33) schrieb:
Das 2K-Bild auf dem 2K-TV sieht dann in etwa so aus wie oben das erste Bild.


Ein natives Full HD-Bild wird niemals solche Treppen aufweisen.
Bei meinem TV muss ich schon verdammt nah ran gehen, um überhaupt die Pixel zu erkennen.

Das menschliche Auge kann in einer Entfernung von einem Meter noch Details zwischen 0,4 und einem Grad Abstand zur Umgebung unterscheiden. Das würde bedeuten, dass ein sehr scharfsichtiger Mensch aus einem Meter Entfernung einen 0,3 Millimeter großen Punkt noch erkennen könnte. Dies entspräche einer Displayauflösung von knapp 85 ppi. Verkürzt man den Abstand auf 30 cm schafft ein gutes menschliches Auge eine Auflösung 300 ppi noch zu erkennen.

Bei knapp 3 m Abstand auf einem 50" TV dürfte ich also keine Unterschiede mehr sehen können und ein sehr gut hochskaliertes Bild bringt keinen Vorteil. Allerdings auch keinen Nachteil.

Hier wäre es interessant zwei gleich große Monitore 4K vs. 2K nebeneinander zu platzieren. Gleiche Quelle anschließen, Bildeinstellungen angleichen und testen.Bin gespannt wer von Euch den 4K identifizieren kann.
hagge
Inventar
#35 erstellt: 23. Jan 2016, 12:55

*Hwoarang* (Beitrag #34) schrieb:
Ein natives Full HD-Bild wird niemals solche Treppen aufweisen.
Bei meinem TV muss ich schon verdammt nah ran gehen, um überhaupt die Pixel zu erkennen.

Ich glaube Du verstehst es nicht, was ich meine. OK, versuche ich es nochmal.

Wenn ein 4K-Bildschirm und ein 2K-Bildschirm die gleiche Diagonale haben, dann sind doch im Vergleich die 4K-Pixel nur noch halb so breit und halb so hoch wie die 2K-Pixel. Oder umgekehrt die 2K-Pixel doppelt so breit und doppelt so hoch wie die 4K-Pixel. Wenn ich also einen kleinen Ausschnitt aus einem Bild beider Bildschirme anschaue und stark vergrößere, dann ist ein Pixel des 2K-Fernsehers so groß wie eine 2x2-Pixelgruppe des 4K-TVs. Kannst Du mir so weit folgen?

OK. Wenn man nun ein Vergleichsbeispiel hier im Forum oder sonstwie auf dem PC machen möchte, habe ich ja immer nur *eine* konkrete Auflösung vor mir, nämlich die Auflösung des Betrachtungsmonitors. Ich kann also immer nur eine Art Bild "darstellen", entweder das Bild des 2K-Fernsehers, dann fehlen mir aber die halb so breiten und hohen Pixel des 4K-Bildes. Oder das 4K-Bild, dann fehlen mir aber die doppelt so breiten und hohen Pixel des 2K-Bildes. Will ich trotzdem vergleichen, muss ich eine der beiden Auflösungen simulieren.

So habe ich es in meinem Beispiel gemacht. Ich habe also die native Darstellung des Betrachtungsmonitors der 4K-Auflösung gleichgesetzt und simuliere die 2K-Auflösung. Ein Pixel des 4K-Bildes entspricht also einem Pixel des Betrachtungsmonitors, und ein Pixel des 2K-Bildes wird dann durch eine 2x2 Pixelgruppe des Betrachtungsmonitors simuliert. Natürlich erscheinen nun irgendwelche schrägen Linien des simulierten 2K-Bildes besonders stufig, aber genau so würde ein 2K-Bild mit seinen doppelt so breiten und hohen Pixeln im Vergleich zu einem 4K-Bild aus der Nähe aussehen.

Gleichzeitig bedeutet das erste Bild mit den in Breite und Höhe verdoppelten Pixeln auch eine Repräsentation des einfachsten Algorithmus für eine Skalierung von 2K auf 4K. Wenn man es so einfach macht, dann sieht ein auf 4K hochskaliertes Bild tatsächlich so schlecht aus. Dann würde es stimmen, dass bei der Skalierung keinerlei Gewinn zu 2K entstünde. Was ich aber mit dem zweiten Bild zeigen will ist, dass eine Skalierung ja nicht so trivial ablaufen muss, sondern viel komplexer sein kann und dann eben doch ein Zugewinn bei den Details und der Schärfe entsteht.


Das menschliche Auge kann in einer Entfernung von einem Meter noch Details zwischen 0,4 und einem Grad Abstand zur Umgebung unterscheiden. Das würde bedeuten, dass ein sehr scharfsichtiger Mensch aus einem Meter Entfernung einen 0,3 Millimeter großen Punkt noch erkennen könnte.

Das ist aber jetzt ein komplett anderes Thema.. Natürlich macht eine Betrachtung, ob ein Bild besser oder schlechter als ein anderes ist nur dann Sinn, wenn man nah genug dran ist, diese Unterschiede überhaupt sehen zu können.

Ansonsten kann ich diese Zahlen jetzt gerade nicht nachprüfen, sie scheinen aber plausibel zu sein. Dennoch haben diese Rechnungen immer einen Haken. Sie beachten nicht, dass je größer der Kontrast ist, man umso besser solche Unterschiede sehen kann. Wenn man z.B. ein einzelnes weißes Pixel auf einer schwarzen Fläche hat, kann man dieses noch aus weit größerer Entfernung sehen. Deswegen sind ja z.B. Pixelfehler, die dauerhaft leuchten, auch so nervig, weil man sie einfach immer sieht.

Oder nimm ein Zeichenprogramm auf dem PC, male eine große schwarze Fläche und setze ein einzelnes weißes Pixel rein. Dann gehe mit dem Kopf zurück, bis Du dieses Pixel nicht mehr sehen kannst. Du wirst erstaunt sein, wie weit Du weg kannst. Was hat Dein PC-Monitor für eine Pixeldichte? 100ppi bei 23 Zoll? Das heißt das Pixel dürfte laut Deiner Rechnung aus gut einem Meter nicht mehr zu sehen sein. Fakt ist aber dass Du viel weiter weg kannst und das Pixel immer noch siehst. Und diese tatsächliche Entfernung hat nichts mehr mit Deiner Rechnung zu tun. Dieser Versuch zeigt aber, dass man durchaus auch noch Unterschiede aus größerer Entfernung sehen kann.

Damit will ich Dir nachweisen, dass diese ganzen Rechnungen einfach nicht so wirklich stimmen. Sie können höchstens eine Art Mittelwert berechnen, berücksichtigen aber nicht alle Effekte, die man (dann auch aus größerer Entfernung) noch sehen kann.


Hier wäre es interessant zwei gleich große Monitore 4K vs. 2K nebeneinander zu platzieren. Gleiche Quelle anschließen, Bildeinstellungen angleichen und testen.Bin gespannt wer von Euch den 4K identifizieren kann.

Haben wir alles schon gemacht. Und der 4K-TV war eindeutig zu erkennen.

Wir haben auch einen 4K-TV mit 65 Zoll gehabt und abwechselnd 2K- und 4K-Material zugespielt. Auch aus größerer Entfernung (ca. 4m) konnte jeder sofort sagen, welche Art Material das gerade ist. Man konnte die Verbesserung von 4K also auch dann noch sehen. Natürlich ist irgendwann mal Schluss, aber der Abstand, wo noch Unterschiede zu sehen waren, war weit größer als all diese Rechnungen (wie auch die von Dir) ergeben.

Warum reiten die Leute immer auf Zahlen herum anstatt sich das einfach mal in echt anzuschauen? Es gibt tatsächlich Leute, die noch nie wirklich 4K gesehen und entsprechende Vergleiche angestellt haben, aber diese Zahlen kennen und dann ernsthaft behaupten, dass die ganzen 4K-Besitzer, die das Bild tagtäglich vor Augen haben, sich selbst nur was vormachen, weil sie angeblich gar keine Verbesserung sehen dürften. Das ist doch absurd. Sie müssten sich das nur mal live anschauen und wüssten sofort, dass ihre ganze Rechnerei nicht stimmt.

Gruß,

Hagge
*Hwoarang*
Stammgast
#36 erstellt: 23. Jan 2016, 16:14
Ich muss zugeben, dass ich keinen 4K Fernseher mein eigen nennen kann, da ich persönlich davon überzeugt bin, dass bei meinen Quellen, meinem Sitzabstand, meiner Diagonalen (47"-50"), meinen Augen zur Zeit kein Vorteil zu HD besteht.
Deine Erklärung verstehe ich schon, nur wende ich diese in der Praxis nicht an.
Die 4K-Fernseher, die ich in den entsprechenden Märkten gesehen habe konnten mich bei TV und BD-Inhalten nicht überzeugen.
Bei extremen Größen von 65" und mehr kann ich mir unter Umständen vorstellen, dass eine Reserve in der Pixeldichte sinnvoll sein kann.

Bei dem von dir beschriebenen Vergleich wäre ich wirklich gerne dabei gewesen.
Muss mich selbst davon überzeugen und lasse mich auch gerne davon überzeugen.
Bisher bin ich der Meinung, dass sich 4K nicht lohnt solange hochgerechnet werden muss. Auch wenn das Hochrechnen von HD-Material nach deinen Angaben noch passable Ergebnisse liefert, was ich dir auch glaube, wie ist es bei SD-Material, das finde ich ja schon auf meinem 50" HD-TV grottig.
Siebert78
Hat sich gelöscht
#37 erstellt: 24. Jan 2016, 16:46
Also ich kann hagge schon bisschen verstehen.

Ich konnte zwar daheim noch keinen 4K-TV testen im Vergleich zu meinem Full-HD, aber es dürfte doch ähnlich sein wie damals mit dem Vergleich von DVD zu BD oder?

Ich hatte 2006 noch einen 42 Zoll-HD-Ready-Plasma samt DVDs.
Selbst aus fast 4 Meter Sitzentfernung konnte ich einen Unterschied sehen, ob ein DVD-Film einfach so nativ zugespielt wurde mit seinen 576 Zeilen oder von meinem sehr guten Marantz-Player auf 720p "hochbearbeitet" wurde.

Kann man das ungefähr vergleichen mit der 2k->4k Hochrechnung?

Klar werden keine zusätzlichen Bildinformationen dazu gewonnen, aber ein hochskaliertes Bild schaut trotzdem immer etwas besser, weil feiner und schärfer aus.....und das selbst aus Entfernungen, die man an sich nicht glaubt.

Mir sagen hier auch viele, dass ich aus meinen knapp 4 Meter Sitzentfernung auf 55 Zoll keinen Unterschied erkennen würde zwischen 4k und 2k, aber selbst das bezweifle ich.

Was ich sagen will:
Diese pauschalen Zahlen mit "Entfernung, Diagonale TV, Auflösung etc" sind in der Praxis meist nicht so ganz richtig.
Es kommt wirklich drauf an, was man sieht in der Realität.
Mein Kumpel sitzt knapp 5 Meter von seinem 42 Zoll TV weg und sagt sogar, dass er nen Unterschied zwischen SD- und HD-TV sieht.


[Beitrag von Siebert78 am 24. Jan 2016, 16:48 bearbeitet]
*Hwoarang*
Stammgast
#38 erstellt: 24. Jan 2016, 17:19

Siebert78 (Beitrag #37) schrieb:

Ich hatte 2006 noch einen 42 Zoll-HD-Ready-Plasma samt DVDs.
Selbst aus fast 4 Meter Sitzentfernung konnte ich einen Unterschied sehen, ob ein DVD-Film einfach so nativ zugespielt wurde mit seinen 576 Zeilen oder von meinem sehr guten Marantz-Player auf 720p "hochbearbeitet" wurde.


Frage: Wie hast du das 576 Zeilen Bild von DVD nativ auf dem HD ready TV nativ anzeigen können?
Siebert78
Hat sich gelöscht
#39 erstellt: 24. Jan 2016, 17:39
Korrektur:
Ok - da war natürlich ein Denkfehler drin.

Ich meinte, dass ich einen Unterschied sah, ob der TV das 576i-Signal auf seine 1024x768 Pixel ausspuckte, oder ob der Marantz-DVD-Player es auf 720p hochskalierte.

Sorry...merke grad, dass der Vergleich net so richtig passt

Man müsste also wirklich zwei TV daheim stehen haben (1x 2k und 1x4k) mit gleicher 2k-Zuspielung und am besten ähnliche Modelle, um wirklich vergleichen zu können, ob das Hochrechnen des 4k-Tvs was bringt.


[Beitrag von Siebert78 am 24. Jan 2016, 17:42 bearbeitet]
*Hwoarang*
Stammgast
#40 erstellt: 24. Jan 2016, 21:19
Gibt es nicht Zuspieler mit zwei HDMI-Ausgängen?
Dann könnte man die Monitore parallel bespielen.
Fände ich persönlich ein äußerst spannendes Experiment, was auch noch die Möglichkeit bietet den ein oder anderen hier im Forum persönlich kennen zu lernen.
Suche:
Das könnte Dich auch interessieren:
UHD Upscaling
thweder am 05.01.2015  –  Letzte Antwort am 05.01.2015  –  2 Beiträge
hat ein uhd fernseher ohne hdr ein genauso scharfes bild wie ein uhd fernseher mit uhd?
AugustVonBaden am 09.11.2016  –  Letzte Antwort am 10.11.2016  –  5 Beiträge
Fragen zu HEVC
Woife am 17.12.2015  –  Letzte Antwort am 19.01.2016  –  8 Beiträge
3D in UHD ?
willybaldfreak am 11.06.2014  –  Letzte Antwort am 11.06.2014  –  2 Beiträge
Frage UHD bzw. SUHD
GrafvonundzuHause am 22.06.2017  –  Letzte Antwort am 23.06.2017  –  2 Beiträge
UHD - Empfang auf FHD - Beamer?
Andimb am 16.08.2016  –  Letzte Antwort am 20.08.2016  –  11 Beiträge
UHD über Amazon Prime
Aragon70 am 10.06.2015  –  Letzte Antwort am 03.08.2015  –  8 Beiträge
TV's mit UHD Recording ?
caradoc am 03.04.2016  –  Letzte Antwort am 06.04.2016  –  3 Beiträge
Das Ende von UHD bluray?
V._Sch. am 28.01.2019  –  Letzte Antwort am 18.04.2019  –  306 Beiträge
TX-58AXW804 mit UHD Stick - Erfahrungen
luedenscheid am 08.12.2014  –  Letzte Antwort am 04.01.2015  –  15 Beiträge
Foren Archiv
2016

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: 3 )
  • Neuestes MitgliedAndy63
  • Gesamtzahl an Themen1.551.077
  • Gesamtzahl an Beiträgen21.537.644

Hersteller in diesem Thread Widget schließen