Samsung QLED mit PC und AVR. Was ist mit GSync?

+A -A
Autor
Beitrag
pFlaNze3D
Schaut ab und zu mal vorbei
#1 erstellt: 18. Jan 2021, 17:27
Hallo wertes HiFi-Forum,
ich habe derzeit ein Setting, das in der Vergangenheit viel Recherchearbeit verursachte und zu einer Vielzahl an Problemen führte. Nun plane ich den Kauf eines neues TV Gerätes und die Probleme beginnen aufs Neue. Ich bin technisch relativ bewandert, jedoch bezüglich der Vielzahl an Neuerungen, insbesondere im TV Geräte Bereich, aktuell ein wenig überfordert.

Zum meinem Aufbau:
-Rechner:
Intel i7 7770K,
Asus Strix Z270 F
Palit Geforce GTX 1080 GameRock Edition 8 GB HDMI 2.0b (4K@60 Hz möglich)
-Monitor: Dell S2716 DG: über DP 1.2 mit der GPU verbunden bei 1440p, 144 Hz und aktiviertem Gsync
-Denon AVR 1713 (2KEF IQ 7 SE Boxen) mit angeschlossenem Blu Ray Player
-Fernseher: Panasonic TXP-VT-20E

Generell schaue ich zu 30 % Fernsehen via Satellit, zu 40 % Netflix und Prime Video, spiele zu 10 % BluRay‘s über einen BluRay-Player ab, der mit dem AVR verbunden ist und spiele zu 20% am PC (Die Besonderheit hierbei ist, dass ich das Bild simultan auf dem Monitor und auf dem Fernseher ausgebe)
Aktuell ist mein Rechner per HDMI Kabel mit einem Denon AVR 1713, der 1080p schafft, verbunden und sendet so Bild und Ton vom Rechner an den AVR. Dies klappt beim Streamen und BluRay schauen in FullHD einwandfrei. Da ich jedoch in 2K Spiele und der Fernseher nur 1080p ohne GSync schafft, musste ich bisher auf die Variante zurück greifen, das Bild über eine Steam Link Box runterskalieren zu lassen und über Ethernet in 1080p auf dem TV-Gerät darzustellen, damit ich auf meinem Monitor in 2K mit 144 Hz und aktiviertem GSync spielen konnte. Dies klappt natürlich nur mäßig mit einer Vielzahl an Qualitätseinbußen bei der Ausgabe seitens des TV-Gerätes.
Nun steht die Anschaffung eines neues TV-Gerätes an, da mein aktueller mittlerweile tatsächlich 9 Jahre auf dem Buckel hat. Ich möchte alles so weiter betreiben wie bisher, d.h. weiterhin auf dem Monitor in 2K @144 Hz und aktiviertem GSync spielen, mit der Änderung, in Zukunft auf die Steam Link Box zu verzichten. Das Bild soll dann lediglich dupliziert und simultan auf dem Monitor und dem TV-Gerät angezeigt werden. Zudem möchte ich natürlich künftig in 4K vom Rechner auf das TV-Gerät streamen können (hierbei wird dann aber lediglich das TV-Gerät als Ausgabequelle fungieren). Durch meine aktuelle GPU (HDMI 2.0b) wäre mir die Limitierung auf dem TV-Gerät (4K @ 60 Hz bewusst). Dies wäre nach meinem Verständnis aber kein Problem, wenn es lediglich um das schauen von Filmen und Serien geht. Beim Spielen möchte ich die vollen 2K @144 Hz und Gsync auf dem Monitor beibehalten. Welche Einstellungen bei dupliziertem Bild dann auf Monitor und den neuen TV-Gerät möglich sind ist quasi meine erste Frage. Die favorisierten Fernseher könnnen 4K bzw. 8K mit HDMI 2.1 und eARC (Modelle siehe unten).
Hierzu stünde die Frage im Raum sicheinen 4 K Receiver anzuschaffen, der dann, wie bisher, mit dem Rechner und dem TV verbunden werden würde.

Nun zu meinen konkreten Fragen/Problemen:

1. Da ich am Rechner mit effektiv 2K spiele, müsste der Fernseher das 2K Bild auf 4K hochskalieren, was laut meinen Recherchen zu Qualitätsverlusten führt, da der Skalierungsfaktor hier bei ca. 1,5 liegt. Da der Kauf eines 2K TV-Gerätes nicht in Frage kommt frage ich mich, wie große die Qualitätsverluste sind und ob sich die Anschaffung eines 8 K Fernsehers ggü. eines 4K Fernsehers nur auf den reinen Skalierungsfaktor bezogen lohnen könnte?

2. Zudem möchte ich beim Spielen gern die 144 Hz sowie GSync Funktion nutzen und bestmöglich ausreizen (ich spiele hauptsächlich schnelle Shooter). Wie verhält es sich mit den Hz Zahlen und Gsync beim Monitor (HDMI 1.4), der GPU (HDMI 2.0b) bei 2K @ 144 Hz und GSync mit einem TV-Gerät das HDMI 2.1 bei 4K bzw. 8K und 120 Hz aufweist. Fungiert der Fernseher dann hierbei als limitierender Faktor wegen der 120 Hz oder macht der Unterschied sich in diesem Bereich (zwischen 120 Hz und 144 Hz) nicht bemerkbar? Ich liege mit meinen Frames meist genau zwischen 120 und 144 FPS in Spielen.
Hintergrund: Meine GPU unterstützt HDMI 2.0b (4K @ 60 HZ) bei meiner 2K Auflösung komme ich jedoch an die 120 bis 144 Frames. Habe ich jetzt ein TV-Gerät mit HDMI 2.1 (bis zu 10K @ 120 Hz) ist bei dupliziertem Bild ja der Fernseher der limitierende Faktor was die Herzzahl angeht. Bleibt dann trotzdem die GSync Funktion bei meinen PC-Monitor aktiv und ist lediglich beim TV-Gerät nicht aktiviert oder ist dann auf beiden Ausgabegeräten 2K mit maximal 60 Hz und deaktiviertem GSync aktiv, da die GPU ja nur den HDMI Standard 2.0b aufweist?

3. Wenn ich einen 4K AVR zwischenschalte, ginge nach meinem Verständnis die GSync Kompatibilität verloren. Stimmt das oder gibt es mittlerweile AVR die GSync durchschleifen können? Im Endeffekt könnte ich dann den Rechner (HDMI 2.0b) direkt mit dem TV (HDMI2.1) mittels eines normalen ULTRA HD HDMI Kabel verbinden um Bild und Ton zum TV-Gerät zu übertragen. Vom Fernseher würde ich dann über den HDMI eARC Ausgang in den ARC Eingang des AVR gehen um den Ton an den AVR weiterzugeben. So müsste ich zwar auf die höhere Audio Bandbreite des eARC Ausgangs am TV-Gerät verzichten, hätte aber dennoch Ton. Denn nur für die höhere Bandbreite bzw. weitere Tonformate scheint mir der Kauf einen neuen AVR vorerst nicht ökonomisch.

Aufgrund der generellen Eigenschaften liebäugle ich aktuell mit dem Samsung GQ 75Q800 T (8K) sowie den Modellen GQ 75Q90TGT bzw. der 75Q95TGT (wegen der Connect Box) von Samsung.

Ich habe mir tatsächlich etliche Gedanken gemacht und recherchiert, mit dem Ergebnis, dennoch keine klare Kaufentscheidung treffen zu können und hoffe nun, dass ihr mir zumindest etwas Klarheit verschaffen könnt.


[Beitrag von pFlaNze3D am 18. Jan 2021, 17:39 bearbeitet]
Slatibartfass
Inventar
#2 erstellt: 19. Jan 2021, 12:33
Zu 1.
Wie kommst Du darauf, dass der Skalierungsfaktor von HD (1080p) zu UHD (2160p) 1,5 wäre?
Rechne mal nach: 2160/1080=2. Bei 8K: 4320/1080=4.
Wegen der Skalierung mach es sicher keinen Sinn einen 8K-TV zu kaufen. Er ist teurer, braucht mehr Strom, und natives 4K sieht auf einem nativen 4K besser aus, als hochskaliert auf einem 8K-Display, wie verschiedenen Vergleichstests zeigen. Natives 8K wird noch lange der absolute Ausnahmefall bleiben.

Mit GSync habe ich keine Erfahrung.
Genauso kann ich nicht sagen, ob die Grafikkarte gleichzeitig 2 unterschiedliche Auflösungen und Bildfrequenzen für Monitor und TV ausgeben kann. Das könnte Probleme geben.

Slati
pFlaNze3D
Schaut ab und zu mal vorbei
#3 erstellt: 19. Jan 2021, 18:26
Erst einmal vielen Dank für deine Antwort Slatibartfass,
der Skalierungsfaktor von 1,5 kommt durch die Auflösung 1440p (welche ich beim Spielen am PC nutzen möchte bzw. muss, da mein Monitor 1440p als native Auflösung unterstützt) und 2160p zustande, die das neue TV Gerät haben soll/wird. 1080p ist lediglich die native Auflösung meines alten TV-Gerätes, welches ausgetauscht wird.
Da beim Spielen mit dupliziertem Bild immer der kleinste gemeinsame Nenner aller angesteuerten Bildgeräte angenommen wird, muss das TV-Gerät dann die 1440p hochskalieren.
Das müsste bei einem 4K Gerät besser aussehen, als bei einem 8K Gerät, da stimme ich dir zu. Sicher bin ich mir jedoch nicht.

Der Faktor wäre ja 2160p zu 1440p = 1,5 und bei 4320p zu 1440p = 3.

Demnach hätte man bei beiden Geräten einen ungeraden Skalierungsfaktor und somit, nach meinem Verständnis, ein schlechteres Bild als bei einem geraden Skalierungsfaktor.
Ich bin mir jedoch nicht sicher, was dann mit den Hz Zahlen (Monitor 144Hz zu neues TV-Gerät 120 HZ) passiert. Ich gehe jedoch davon aus, dass in diesem Fall die maximale Frequenz für beide auf 120 Hz beschränkt wird, bin mir jedoch nicht sicher.
Die Frage ist, was mit dem GSync Modus passiert. Ich habe gelesen, dass neue TV-Geräte einen sogenannten VRR Modus unterstützen, wohinter sich wohl die gleiche Technik wie bei AMD FreeSync und GSync verbergen soll (https://feintech.eu/hdmi-2-1-funktionen). Ob dieser dann jedoch tatsächlich mit meiner GPU kompatibel ist konnte ich bisher nicht in Erfahrung bringen. Da geht es wohl um NVIDIA Zertifizierungen und Updates der TV-Geräte.

Hat jemand eine Meinung bzw. Erfahrungen für die in Nr. 2 und 3 erwähnten Sachverhalte?
n5pdimi
Inventar
#4 erstellt: 19. Jan 2021, 20:08

pFlaNze3D (Beitrag #3) schrieb:
E

Der Faktor wäre ja 2160p zu 1440p = 1,5 und bei 4320p zu 1440p = 3.


Ähm, Milchmädchenrechnung?
Dir ist klar, dass für den Skalierungsfaktror die Anzahl der Pixel, also die Fläche relevant ist? Also im Quadrat...

Konkret:
4K - FHD
2160 vs 1080:
3840x2160 = 8294400 zu 1980x1080 = 2073600 = Faktor 4
4K - 1440p
2160 vs 1440p:
3840x2160 = 8294400 zu 2560x1440 = 3686400 = Faktor 2,24
8K - 1440p:
7680x4320 = 33177600 zu 2560*1440 = 3686400 = Faktor 9
Slatibartfass
Inventar
#5 erstellt: 08. Feb 2021, 18:35

pFlaNze3D (Beitrag #3) schrieb:

Da beim Spielen mit dupliziertem Bild immer der kleinste gemeinsame Nenner aller angesteuerten Bildgeräte angenommen wird, muss das TV-Gerät dann die 1440p hochskalieren.
Das müsste bei einem 4K Gerät besser aussehen, als bei einem 8K Gerät, da stimme ich dir zu. Sicher bin ich mir jedoch nicht.

Als Alternative gäbe es dann ohnehin nur noch HD, wo die 1440p auf 1080p herunter skaliert werden müsste, was dann sicher nicht besser aussieht.

Du solltest bei deinem neuen TV auf jeden Fall auf 1:1 Pixelmapping einstellen, denn sonst macht jeder TV einen Overscan (Abschneiden des Bildrandes), wodurch auch native Formate auf einem TV mit der passenden Auflösung mit deutlich ungeraderen Zahlen skaliert werden als 1,5. Auch wenn den Unterschied kaum Jemand sieht, scheint das für Dich eine wichtige Voraussetzung zu sein, um gefühlt mit deinem TV zufrieden zu sein.

Slati
Apollo30
Stammgast
#6 erstellt: 27. Feb 2021, 02:01
Hast du das mal gemessen oder sauber angezeigt bekommen, dass diese Steam Link Box wirklich 144 FPS liefert?
Die 1080 wird sich über 4k nicht freuen, 144 FPS in 4 K werden wohl eher kein Thema werden. Neue GPU? Dann viel Spaß in der Grafikkartenlotterie.
Warum hast du eigentlich so ein kompliziertes Setting mit den beiden Screens die du immer parallel haben willst?
Ich würde nicht damit rechnen, dass GSync durch den AVR durchgeht, aber hast du mal gegoogelt?
Gibts TVs mit neuem Display Port Anschluss, weil diese normal immer mehr packen als die HDMI?
Suche:
Das könnte Dich auch interessieren:
Verkabelung PC mit AVR
J.D._Eis am 03.10.2012  –  Letzte Antwort am 03.10.2012  –  3 Beiträge
PC mit AVR verbinden!
fredmaxxx am 13.08.2009  –  Letzte Antwort am 19.08.2009  –  8 Beiträge
PC mit AVR verbinden
Froschauge45 am 15.05.2013  –  Letzte Antwort am 16.05.2013  –  2 Beiträge
AVR mit PC verbinden
*FloBa* am 14.09.2014  –  Letzte Antwort am 14.09.2014  –  4 Beiträge
PC mit Denon AVR 3310
clench am 28.06.2013  –  Letzte Antwort am 29.06.2013  –  4 Beiträge
Problem mit AVR in Verbindung mit PC
*FloBa* am 16.11.2014  –  Letzte Antwort am 23.11.2014  –  5 Beiträge
PC an AVR - Kein Ton über Cinch
sibitv am 19.02.2013  –  Letzte Antwort am 20.02.2013  –  8 Beiträge
AVR Denon 2313 mit PC verbinden
ich.du am 21.08.2013  –  Letzte Antwort am 21.08.2013  –  5 Beiträge
PC an AVR
jonathanF am 02.10.2009  –  Letzte Antwort am 06.10.2009  –  3 Beiträge
PC/ Fernseher/ etc. mit Boxen verbinden (AVR?)
Sound_Addikkt am 29.09.2018  –  Letzte Antwort am 05.10.2018  –  2 Beiträge
Foren Archiv
2021

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: 2 )
  • Neuestes MitgliedChriscOg
  • Gesamtzahl an Themen1.551.071
  • Gesamtzahl an Beiträgen21.537.350

Hersteller in diesem Thread Widget schließen