Videoumschaltung am AVR vs. Direktverbindung zum TV

+A -A
Autor
Beitrag
BigBlue007
Inventar
#1 erstellt: 20. Feb 2009, 18:51
Ich möchte hier mal ein Thema zur allgemeinen Diskussion stellen, auf welches ich selbst zugegebenermaßen auch erst in den letzten Wochen gekommen bin; vorher sah ich das auch ein wenig anders. Ich habe das in diversen anderen Threads auch schon mal erwähnt, wenn es passte, allerdings würde mich nun doch eine direkte Diskussion zum Thema interessieren.

Wie die meisten anderen hier, die HDMI-AVRs nutzen, habe natürlich auch ich bis vor Kurzem alle Zuspieler über den AVR laufen lassen und diesen dann mit einem einzelnen HDMI-Kabel (und ggf. noch mit einem Komponentenkabel) mit dem TV verbunden. Grund war natürlich neben der einfacheren Verkablung auch der HD-Ton-Wahn - HD-Ton geht ja nunmal nur bei HDMI-Zuspielung zum AVR.

Irgendwann habe ich mich dann aber ein bißchen näher mit dem Thema Bildoptimierung befasst, und es war sehr schnell klar, dass ich hier ein Problem habe. Wie viele andere Leute, besitze auch ich eine PS3. Mit der PS3 hat man in allen Lagen, d.h. sowohl bei Filmen als auch bei Games, das beste Bild, wenn die RGB-Option "Voll" und die Superweiß-Option auf "ein" gestellt ist. Stichworte in diesem Zusammenhang, mit denen man auch Vieles zum Thema findet, sind "BTB" (blacker-than-black) und "WTW" (whiter-than-white). Beide Optione sollten für Filme irrelevant sein, weil der mit diesen Optionen aktivierte erweiterte Helligkeitsbereich von Filmen per Definition eigentlich nicht genutzt werden darf. Von manchen wird er aber eben doch genutzt, und bei Spielen gibt es diese Beschränkung gar nicht erst. Auch professionelle Kalibrierungsfiles oder -scheiben wie etwa die Burosch-Testbilder oder die DVE-Bluray unterstützen explizit das Kalibrieren auf BTB- und WTW-Werte. Voraussetzung ist natürlich, dass der verwendete TV diesen erweiterten Helligkeitsbereich unterstützt, aber das tun eigentlich die meisten aktuelleren Geräte.

Und genau hier liegt das Problem, bzw. eigentlich sind es sogar zwei: Zum einen gibt es einige AVRs (dazu gehört z.B. die komplette RX-Vxx3-Serie von Yamaha), die BTB/WTW über HDMI unterdrücken. Eine an solch einem AVR angeschlossene PS3 muss also zwangsweise auf "RGB begrenzt" und "Superweiß aus" gestellt werden, da die PS3 ansonsten Helligkeitspegel ausgibt, die der AVR verschluckt. Das viel größere, weil allgemeingültige Problem ist jedoch, dass man den TV eigentlich für jede angeschlossene Quelle separat kalibrieren muss. Spätestens, wenn eine PS3 oder Xbox 360 im Spiel ist, denn diese Zuspieler geben wie gesagt das beste Bild aus, wenn sie so konfiguriert sind, dass die BTB- und WTW-Werte ausgeben können. Praktisch jede andere Quelle, wie etwa Sat-Receiver usw., arbeitet hingegen grundsätzlich nur mit dem begrenzten Helligkeitsbereich. Nur wenige Geräte (der Technisat HD S2 ist das Einzige, das ich kenne) gestatten eine Umstellung des HDMI-Helligkeitsbereichs auf den vollen Bereich - was nichts daran ändert, dass alles, was über Sat oder Kabel reinkommt, grundsätzlich nie BTB- und WTW-Werte enthält.

Es stellt sich letztlich also das Problem, dass unterschiedliche Quellen unterschiedliche optimale Einstellungen am TV erfordern. Dies gilt eigentlich auch dann, wenn keine PS3 oder Xbox 360 im Spiel ist und also keine der Quellen den erweiterten Helligkeitsbereich nutzt. Auch unabhängig hiervon ist die optimale Bildkalibrierung für unterschiedliche Quellen nur in den seltensten Fällen identisch.

Und wenn wir über "Bildkalibrierung" reden, dann geht es ja auch nicht nur um Helligkeit, Kontrast, Farbe und Schärfe. Ein weiterer wichtiger Punkt ist der Overscan. Für PS3, Xbox 360 oder auch für PC-Zuspielung sollte der Overscan immer ausgeschaltet sein, alles andere ist ziemlich blöd. Bei abgeschaltetem Overscan besteht allerdings in Verbindung mit Sat- und Kabelreceivern (auch solchen mit HDMI) das Problem, dass bei vielen SD-Sendern oben oder unten unschöne gezackte Ränder erscheinen. Ich vermute, das ist quasi die visualisierte Austastlücke. Hier ist der Overscan dann wiederum i.d.R. gewünscht; tatsächlich gibt es ihn ja auch wegen exakt dieses Problems. Und nur die wenigsten Sat-/Kabelreceiver können selbst einen Overscan machen.

Nun gibt es natürlich TV-Geräte, bei denen man Bildparameter in Presets abspeichern und aufrufen kann. Das können aber a) nicht alle, b) ist es umständlich (ok, mit einer Universal-FB vernachlässigbar), und c) sind selbst bei TVs, die dieses Feature haben, nicht zwingend alle Bildparameter in den Presets speicherbar. Insbesondere die Overscan-Einstellung ist bei vielen Geräten nur global bzw. pro Eingang, aber eben nicht in einem Preset speicherbar.

All dies zusammen hat mich bewogen, vom AVR als HDMI-Umschalter wegzugehen und meine Bildquellen direkt am TV anzuschließen. Mein LCD hat 3 HDMI-Eingänge (4, wenn man den seitlichen mitzählt) - das reicht mir persönlich locker aus. Die optimalen Bildeinstellungen für meine PS3 und meinen Sat-Receiver unterscheiden sich relativ deutlich (bei Helligkeit und Kontrast z.B. um jeweils ca. 10); von der Möglichkeit, den Overscan explizit nur für den PS3-Eingang abzuschalten, ganz zu schweigen. Für den Ton verwende ich wieder wie früher optische Kabel. Damit geht mir natürlich die Möglichkeit flöten, HD-Ton zu nutzen. Aber sind wir doch mal ehrlich: Es herrscht eigentlich zumindest bei den Leuten, die sich halbwegs auskennen, relative Einigkeit darüber, dass man für einen hörbaren Unterschied wirklich sehr gute Lautsprecher im deutlich 4-stelligen Eurobereich braucht. Die habe ich nicht und werde sie auch nie haben. Und viele andere hier auch nicht. Und selbst WENN ich den Unterschied hören würde, wäre dies ja dann auch nur relevant, wenn ich tatsächlich mal irgendetwas mit HD-Ton wiedergebe. Auf das TV-Bild schaue ich dagegen IMMER, egal was läuft. D.h. selbst wenn ich tatsächlich denken würde, dass ich den besseren HD-Ton höre, würde ich mir hierfür halt irgendwas anderes einfallen lassen (z.B. ein HDMI-Splitter, der den Ausgang der PS3 auf AVR und TV verteilt).

Lange Rede kurzer Sinn: Den Vorteil von weniger Kabeln bei einem AVR, der als HDMI-Umschalter fungiert, erkauft man sich in den allermeisten Fällen damit, mit suboptimalen Bildeinstellungen zu leben. Darauf hatte ich persönlich keinen Bock mehr.

Vielleicht konnte ich ja dem ein oder anderen einen Denkanstoß geben.
pulos
Stammgast
#2 erstellt: 22. Feb 2009, 19:52
Für deinen aufschlussreichen Beitrag danke ich dir!

Ich bin gerade auf das Thema BTB/WTW gestoßen, wollte eigentlich den Yamaha V663 für meinen Epson TW3000 kaufen - das werde ich mir wohl sparen, denn eine Xbox soll in absehbarer Zeit auch noch dran. Und im Gegensatz zu dir möchte ich den Luxus des HDMI-Umschalters im AVR nicht verzichten, sonst laufen wieder so viele Kabel an die Decke zum Proki...

Schöne neue HD-Welt. Ist doch leider voller Haken
BigBlue007
Inventar
#3 erstellt: 22. Feb 2009, 20:59
Klar, wenn ich einen Projektor hätte, dann wäre das Thema Kabel natürlich ein ganz anderes. Aber so steht der TV halt direkt über den anderen Geräten, so dass es letztlich egal ist, wenn da nun 1, 2 Kabel mehr hingehen.

Davon abgesehen könnte ich mir vorstellen, dass es bei Projektoren möglicherweise deutlich üblicher als bei TVs ist, Bildparameter in Presets abzuspeichern. Mit Projektoren kenne ich mich aber mangels Interesse Null aus.
AppleRedX
Stammgast
#4 erstellt: 24. Feb 2009, 11:29
Ähnliche Überlegungen habe ich - auf Grund der anstehenden "Modernisierung" meiner Anlage - auch gehabt.

Ein weiterer Punkt ist der Energieverbrauch ... wenn der AV-Amp immer an ist summiert sich das über die Zeit. Wenn ich gemütlich TV schaue (Nachrichten, Sport, Comedy) brauche ich nicht unbedingt eine 5.1 Beschallung.

Sobald der neue Amp da ist werde ich daher einige Komponenten doppelt anschließen ... an den Amp und direkt an den TV.


Ciao
AppleRedX

PS: Hoffe auch das in absehbarer Zeit mehr Blu-ray Player 2x HDMI Out haben ... der einzige derzeit (Pio LX91) ist leider noch etwas teuer.


[Beitrag von AppleRedX am 24. Feb 2009, 11:30 bearbeitet]
BigBlue007
Inventar
#5 erstellt: 24. Feb 2009, 13:26

AppleRedX schrieb:
Ähnliche Überlegungen habe ich - auf Grund der anstehenden "Modernisierung" meiner Anlage - auch gehabt.

Ein weiterer Punkt ist der Energieverbrauch ... wenn der AV-Amp immer an ist summiert sich das über die Zeit. Wenn ich gemütlich TV schaue (Nachrichten, Sport, Comedy) brauche ich nicht unbedingt eine 5.1 Beschallung.

Das kann ich nun wiederum überhaupt nicht nachvollziehen. Der AVR ist bei mir IMMER an, egal was ich schaue. Dabei hat mein TV eigentlich keine schlechten Lautsprecher, aber zum AVR liegen natürlich trotzdem Welten dazwischen.
P_S_Nelke
Inventar
#6 erstellt: 24. Feb 2009, 13:36

BigBlue007 schrieb:

Das kann ich nun wiederum überhaupt nicht nachvollziehen. Der AVR ist bei mir IMMER an, egal was ich schaue. Dabei hat mein TV eigentlich keine schlechten Lautsprecher, aber zum AVR liegen natürlich trotzdem Welten dazwischen.

Klanglich gesehen mag das ja stimmen, dein Stromanbieter wird sich aber auch freuen. Ich habe mal eben nachgerechnet. Bei einem Anbieter würde ich für 4 Stunden 5.1 am Tag allein nur für den Receiver satte 180€ im Jahr zahlen, dazu kommen noch TV, DVD-Player usw.. Das läppert sich!
BigBlue007
Inventar
#7 erstellt: 24. Feb 2009, 13:58
Diese Rechnung musst Du mir mal bitte konkret eröffnen.

Davon abgesehen: Ich leiste meinen Beitrag zum Stromsparen durch die konsequente, also ausschließliche Verwendung von Energiesparlampen und achte beim Neukauf von Elektrogeräten ebenfalls auf deren Energieverbrauch. Ich zahle für eine 90qm-Wohnung und unseren 2-Personenhaushalt im Monat ca. 50 Euro Strom, und das, obwohl ich als technikaffiner Mensch einiges an Spielerei am Start habe (z.B. einen 24h laufenden Server, der aber ein stromsparendes Notebook ist, oder natürlich auch der immer aktive WLAN-Router). Ich kenne Leute, die bei vergleichbarer Wohnungsgröße und Personenanzahl deutlich mehr Strom als ich zahlen. Dort brennen dann halt den ganzen Tag irgendwelche Lampen, die keiner braucht.

Grundsätzlich verzichte ich aber nicht nur um des Selbstzwecks des Stromsparens willen auf Komfort. Dazu zählt auch das Einschalten des AVRs.

Um nochmal auf Deine Rechnung zurückzukommen: Ein durchschnittlicher AVR braucht bei Zimmerlautstärke deutlich unter 100W, eher sowas wie 50W. Selbst wenn er 100W verbraucht, würde dies nach meiner Rechnung bei einer angenommenen Betriebszeit von 4h am Tag, 365 Tage im Jahr, und einem Strompreis von 15 Cent pro kWh, pro Jahr ca. 22 Euro kosten. Bei 50W dann entsprechend die Hälfte. Daher nochmals die Frage, wie Du auf 180 Euro kommst. Um es vorweg zu nehmen: Du hast Dich verrechnet. Deine Aufgabe ist jetzt herauszufinden, wo genau.
Tussy
Inventar
#8 erstellt: 24. Feb 2009, 16:58

... Strompreis von 15 Cent pro kWh, pro Jahr ca. 22 Euro kosten


Wo gibt es den diesen Strompreis??
Haut euch nicht gegenseitig die Taschen voll!

Durchschnitt ca. 18 Cent pro KWh

400 Watt am Tag x 365 Tage Jahr = 146000 Watt

146kWh * 18 Cent = 26 Euro
BigBlue007
Inventar
#9 erstellt: 24. Feb 2009, 17:04

Tussy schrieb:

... Strompreis von 15 Cent pro kWh, pro Jahr ca. 22 Euro kosten


Wo gibt es den diesen Strompreis??

Das war die Vorgabeeinstellung im erstbesten Stromrechner, den ich im Web gefunden habe. Ich zahle 15.9 Cent. Die Abweichung ist geschenkt.

Durchschnitt ca. 18 Cent pro KWh

Dann habe ich offenbar einen recht günstigen Anbieter, aber auch mit 18 Cent komme ich nicht auf 180 Euro.

400 Watt am Tag x 365 Tage Jahr = 146000 Watt

146kWh * 18 Cent = 26 Euro

Wie gesagt - ob nun 22 oder 26 Euro... geschenkt. Beides ist etwa gleich weit entfernt von 180 Euro.


[Beitrag von BigBlue007 am 24. Feb 2009, 17:04 bearbeitet]
Juli66
Ist häufiger hier
#10 erstellt: 24. Feb 2009, 18:29
Wenn Dein TV die Möglichkeit besitzt und Du nur HDMI Zuspieler hast, dann ist die Idee auf jedem Fall interessant. Was da eigentlich nur dagegen sprechen würde, wäre der opt./digitale 5.1 Ton von der PS3 falls Du eine 7.1 Anlage hättest. Das Aufblasen auf 7.1 ist doch nicht das selbe, dass merke ich jedesmal wenn ich TV 5.1 DD gucke.
Suche:
Das könnte Dich auch interessieren:
Haltbarkeit AVR vs. Stereoreceiver
goofy1969 am 28.05.2009  –  Letzte Antwort am 01.06.2009  –  14 Beiträge
Denon AVR vs. Harman AVR
Timonde am 13.05.2007  –  Letzte Antwort am 29.05.2007  –  16 Beiträge
AVR-Receiver vs. alter 5.1 Verstärker
Simon.S am 11.04.2011  –  Letzte Antwort am 13.04.2011  –  6 Beiträge
Harman Kardon AVR 330 vs. AVR 235
webRacer am 23.05.2005  –  Letzte Antwort am 23.05.2005  –  6 Beiträge
Denon Avr 3805 vs Avr 2307
Tutan am 10.12.2006  –  Letzte Antwort am 10.12.2006  –  2 Beiträge
Denon AVR-3806 vs. AVR-2807
goldfish3473 am 05.04.2007  –  Letzte Antwort am 07.04.2007  –  11 Beiträge
Neuer AVR vs. Altgerät
Wilson_666 am 25.01.2010  –  Letzte Antwort am 28.01.2010  –  36 Beiträge
AVR vs. Stereovollverstärker
Theoby am 04.12.2011  –  Letzte Antwort am 24.11.2017  –  29 Beiträge
Pioneer vs Yamaha AVR
Ultimate_JB am 07.03.2021  –  Letzte Antwort am 10.03.2021  –  4 Beiträge
Denon AVR-3805 vs. 3806 vs. 4306
tk205 am 29.06.2007  –  Letzte Antwort am 29.10.2007  –  5 Beiträge
Foren Archiv
2009

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.708 ( Heute: 6 )
  • Neuestes MitgliedAudioR
  • Gesamtzahl an Themen1.551.040
  • Gesamtzahl an Beiträgen21.536.505

Hersteller in diesem Thread Widget schließen