Gehe zu Seite: |vorherige| Erste Letzte

Der Zocker TV - Thread Input Lag und 100/200 Hz Technik

+A -A
Autor
Beitrag
Aragon70
Inventar
#51 erstellt: 19. Jan 2016, 00:42
Ja, passt soweit

Wobei ich den Lag mit aktivierter Frame Interpolation, bei Samsung Motion Plus auf Glätten, wie schon erwähnt, sehr viel interessanter finde als den Gaming Modus.

Man kann eh pauschal sagen das alles was unter 50 ms Inputlag liegt für 99% aller Spieler keinen Unterschied zu 0 ms macht, das merkt man eh nicht.

Relevant ist das höchstens für die Hardcorezocker, aber selbst da muß man schon sehr pingelig sein. Ich bin bei Star Wars Battlefront auf meinem 80 ms TV genauso oft gestorben wie auf meinem 0 ms 120 Hz Monitor

Insofern ist es reine Augenwischerei wenn rtings meint der Samsung JS9090 ist ein guter Spiele Fernseher, imo ist er das nicht wenn er nur auf 131 ms mit Frame Interpolation kommt.

http://www.rtings.com/tv/reviews/by-test-results/input-lag

Bei der Bewertung eines TVs für Spiele müßten folgende Eigenschaften am höchsten bewertet werden.

Inputlag mit Motion Interpolation
<=50 ms heißt sehr gut, <=65 ms gut, <=80 ms befriedigend <=95 ms und <=110 ms = mangelhaft.

Gaming Modus kann man trotzdem testen und vielleicht noch etwas runtergehen, <=35 ms sehr gut, <=50 ms gut, <=65 befriedigend <=80 ms ausreichend 95 ms mangelhaft.

Andere Punkt wären die allgemeine Qualität der Zwischenbildberechnung

Test 1: Wieviele Artefakte entstehen sobald das Bild von Standbildung in Bewegung wechselt. Damit hatten z.B. diverse ältere Sonys ein Problem.

Test 2: Ab welcher Geschwindigkeit setzt die Berechnung aus. Dazu verschiedene Szenen mit horizontalen und vertikalen Kameraschwenks testen.

Test 3: Schlierenbildung in dunklen Bildbereichen. Gängiges Problem mit diversen LCD Panels. Mein Samsung HU8590 ist in der Hinsicht so gut wie perfekt, da würde ich ein sehr gut geben. Mein alter Philips dagegen nur mangelhaft.

Andere Kriterien wären noch ob er 4K mit 60 Hz unterstützt, und praktisch wäre auch noch mehr Bildeinstellungen zu haben und die HDMI Tasten idealerweise direkt auf der Fernbedienung und nicht irgendwo versteckt

Nahezu komplett irrelevant ist dagegen HDR, also 10 Bit Farbtiefe, unterstützt eh kein SPiel, wird auch
so schnell nicht kommen. Wobei ich den Hype darum eh nicht verstehe, aber das ist ein anderes Thema.

Höhere Farbgenauigkeit mit Nano Kristallen, imo auch nicht sonderlich wichtig.

Wenig bis gar kein DSE wäre dagegen wiederum ein sehr wichtiges Kritierum da man in Spielen sehr oft horizontal vorbeiscrollende Elemente hat wo das auffällt, heißt DSE nervt hier extrem.

Mir kommt die TV INdustrie eh so vor als würde man ein Auto bauen, bei dem der Tank ein Leck hat, die Gangschaltung hackt, es reinregnet, das Lenkrad nur mit Verzögerung reagiert, aber bevor man das behebt baut man lieber einen weiteren Heckspoiler dran und behauptet das wäre das ultimative neue wichtige Feature.
eraser4400
Inventar
#52 erstellt: 19. Jan 2016, 10:53
Nahezu komplett irrelevant ist dagegen HDR, also 10 Bit Farbtiefe, unterstützt eh kein SPiel,
>Wie bitte???

Also von Spielegrafik, hast du offensichtlich nicht mehr, wie rudimentäre Kenntnisse.

Moderne Spiele die zb. HDRR implementiert haben (also seit HL² LostCoast) unterstützen in diesen Szenen, Farbtiefe in 64bit!
Sie kann bloss so nicht von Consumer-Monitoren abgebildet werden, da Diese das nicht unterstützen.

Der normale Farbraum liegt beim PC seit über einem Jahrzehnt bei 32, respektive 36bit (HighColor/TrueColor).
Das was Viele wollen, nämlich eine 1:1 Abbildung der Realität in Spielen (so wie das menschl. Auge, draussen die Umgebung wahrnimmt), wird erst möglich sein, wenn wir GPUs sowie auch Displays haben, die eine Farbtiefe von 128bit darstellen können, denn genau diese Verläufe, zeigt umgerechn. das menschl. Auge (wissenschaftl. erwiesen).

Und so lang, wird weiterhin der Comic-Look, Alltag auf den Bildschirmen sein.


[Beitrag von eraser4400 am 19. Jan 2016, 10:55 bearbeitet]
-Didée-
Inventar
#53 erstellt: 19. Jan 2016, 11:23

eraser4400 (Beitrag #52) schrieb:
Der normale Farbraum liegt beim PC seit über einem Jahrzehnt bei 32, respektive 36bit (HighColor/TrueColor).

Da sind wohl ein paar Bits durcheinander gekommen.

HighColor hat16bit Farbtiefe (RGB 565).
TrueColor hat nativ 24bit Farbtife (RGB 888). TrueColor 32bit hat 8bit mehr wegen dem zusätzlichem Alphakanal, das hat aber mit der eigentlichen Farbtiefe nichts zu tun, den Alphakanal braucht man halt beim Rendering für Overlays von Objekten usw.

36bit Farbtiefe hat es "seit über einem Jahrzehnt" in so gut wie keiner Consumer-GraKa gegeben, sondern fast ausschließlich im Profi-Sektor.
eraser4400
Inventar
#54 erstellt: 19. Jan 2016, 11:27
36bit Farbtiefe hat es "seit über einem Jahrzehnt" in so gut wie keiner Consumer-GraKa gegeben, sondern fast ausschließlich im Profi-Sektor.
>Die GPUs sind fast immer die selben, wie sie auch im Consumer-bereich eingesetzt werden und darum ging es ja. Profi-Karten sind wg. dem eiges. Speicher, aber vor Allem wg. der OpenGLerweiterten-Unterstütz. und dem schweineteuren Support unterschiedlich.

Und nat. geht es bei der Farbtiefe um Werte pro Kanal, also RGB. Muss man dann entspr. 'runterrechnen. das mit dem Alpha, da hast du nat. Recht.


[Beitrag von eraser4400 am 19. Jan 2016, 11:30 bearbeitet]
Aragon70
Inventar
#55 erstellt: 20. Jan 2016, 01:43

eraser4400 (Beitrag #52) schrieb:
Nahezu komplett irrelevant ist dagegen HDR, also 10 Bit Farbtiefe, unterstützt eh kein SPiel,
>Wie bitte???

Also von Spielegrafik, hast du offensichtlich nicht mehr, wie rudimentäre Kenntnisse.

Moderne Spiele die zb. HDRR implementiert haben (also seit HL² LostCoast) unterstützen in diesen Szenen, Farbtiefe in 64bit!
Sie kann bloss so nicht von Consumer-Monitoren abgebildet werden, da Diese das nicht unterstützen.


Scherzkeks, natürlich meine ich die Ausgabe auf einem Consumer Monitor, HDR in Computerspielen wird nur intern verwendet um künstlich zu simulieren wenn sich das Auge an dunkle und helle Stellen gewöhnt, am Ende kommen trotzdem nur 8 Bit pro Farbkanal dabei heraus.


eraser4400 (Beitrag #52) schrieb:

Der normale Farbraum liegt beim PC seit über einem Jahrzehnt bei 32, respektive 36bit (HighColor/TrueColor).
Das was Viele wollen, nämlich eine 1:1 Abbildung der Realität in Spielen (so wie das menschl. Auge, draussen die Umgebung wahrnimmt), wird erst möglich sein, wenn wir GPUs sowie auch Displays haben, die eine Farbtiefe von 128bit darstellen können, denn genau diese Verläufe, zeigt umgerechn. das menschl. Auge (wissenschaftl. erwiesen).

Und so lang, wird weiterhin der Comic-Look, Alltag auf den Bildschirmen sein. ;)


In Videospielen wirds sicher noch etwas mehr bringt als bei Spielfilmen. Trotzdem halte ich das nicht für so revolutionär, weil mans nur in Szenen mit auffälligen Farbverläufen sieht.

Allerdings wärs auch jetzt schon kein Thema mit Dithering, das auf nich HDR Fernsehern und Monitoren hinzubekommen, in 4K fällt DIthering zudem noch sehr viel weniger auf als in 1080p.

Hier habe ich mal ein Beispielbild mit einem Farbverlauf und Dithering erstellt

http://abload.de/image.php?img=untitledeqpix.png

und hier das Bild ohne Dithering, man sieht noch die Abstufungen, aber selbst die finde ich nicht so schlimm.

http://abload.de/image.php?img=untitled2m1rqc.png

Wenn man wirklich auffällige Farbabstufungen in einem FIlm sieht liegt das meist eher an einer schlechten Kompression.

Ich habe jetzt nichts gegen HDR, es ist immer gut zu versuchen etwas soweit zu verbessern daß es nicht mehr besser sein muß und 8 Bit pro Farbkanal sind halt noch nicht so gut das es nicht besser geht.

Aber trotzdem wird das nur in wenigen Filmszenen auffallen.

Die Hersteller wissen das auch, weswegen sie es halt so erklären das es den Kontrast erhöhen kann, aber eigentlich hat es damit nichts zu tun, das ist eher etwas das man mit einem OLED oder LCD mit Local Dimming lösen kann.

Mir wäre eine fehlerfreie Zwischenbildberechnung und geringer Inputlag halt ungefähr 10 mal wichtiger als HDR:
Kumah
Ist häufiger hier
#56 erstellt: 20. Jan 2016, 22:44
Also mein Erzfeind war bei allen vorigen TVs, auch mit mehrfachen Tauschs etc. immer der Dirty Screen Effect. Das variiert natürlich immer. Kann mir trotzdem jemand eine Reihe oder ein Modell mit auffällig wenig DSE empfehlen, vor allem zu Gaming-Zwecken?
Hardrock82
Inventar
#57 erstellt: 21. Jan 2016, 00:52

Kumah (Beitrag #56) schrieb:
Also mein Erzfeind war bei allen vorigen TVs, auch mit mehrfachen Tauschs etc. immer der Dirty Screen Effect. Das variiert natürlich immer. Kann mir trotzdem jemand eine Reihe oder ein Modell mit auffällig wenig DSE empfehlen, vor allem zu Gaming-Zwecken?


Gibt es bei LCDs nicht, kannst halt nur eins machen, ab zum Fachhändler Geräte austesten und das Teil mit dem geringsten DSE / Clouding und Spotting Abteil niehmst du dann.

Alternative..OLED Markt beobachten bzw. hoffen,
das Samsung nochmal da mit mischt,
die hatten mit dem damaligen S9 ein OLED der mit BFI Technik ein top Bewegtbild hin bekam,
wovon man leider derzeit bei LG träumen darf.

@ Eraser

Was meint ihr die ganze Zeit mit HDR?
High Dynamic Range?
Wenn ja, wirds eh nicht viel bringen,
weils derzeit eh kein Game gibt was diese Kontrasterweiterung unterstützt.
Oder habe ich da was verpasst im PC Bereich?
eraser4400
Inventar
#58 erstellt: 21. Jan 2016, 10:16
Oder habe ich da was verpasst im PC Bereich?
>Ja. HDRR gibts bei PC-Spielen schon seit 2004. Der TV-Bereich, hinkt halt gewaltig hinterher.


[Beitrag von eraser4400 am 21. Jan 2016, 10:17 bearbeitet]
-Didée-
Inventar
#59 erstellt: 21. Jan 2016, 10:49
Tja, nur war dieses "HDR" leider etwas völlig anderes (nämlich ein rein graphischer Effekt beim Rendering), und hat herzlich wenig mit dem "physikalischen" HDR zu tun, das jetzt eingeführt wird.
eraser4400
Inventar
#60 erstellt: 21. Jan 2016, 11:40
Klar ist das ein rein grafischer Effekt. Was soll es bei Spielen auch sonst sein? Real abgefilmtes Material gibts da ja net...
Das Ergebnis ist aber quasi das Selbe. Weichere Farbverläufe, weiterer Farbraum, größerer Kontrastumfang. (Iris-Simulation zb.)


[Beitrag von eraser4400 am 21. Jan 2016, 11:43 bearbeitet]
-Didée-
Inventar
#61 erstellt: 21. Jan 2016, 11:53
Nö. Unfug. Kein größerer Farbraum, kein größerer Kontrast. Schwarz ist sowieso nicht schwärzer als ohne fake-HDR, insbesondere ist Weiß nicht heller als ohne fake-HDR, und der Monitor zeigt auch den gleichen Farbumfang wie ohne fake-HDR, weil sich seine Fähigkeiten ja nicht auf magische Weise erweitern ...

Google doch mal nach HDR in der Fotografie/Bildbearbeitung, vielleicht wird's dann klarer.
eraser4400
Inventar
#62 erstellt: 21. Jan 2016, 12:07
und der Monitor zeigt auch den gleichen Farbumfang wie ohne fake-HDR
>DAS, ist das einzig Wahre an deiner Bemerkung. Über den Rest, informier dich mal besser über high-dynamic-range-renedering im PC-Bereich. Und mit FAKE hat das gar nix zu tun, da ist das schon eher im TV-Bereich Fake. PC-Hardware ist eh um Längen leistungsstärker als TV-Hardware jeh sein könnte und hat mit HDRR keinerlei Probleme.


High Dynamic Range Rendering (HDRR) bezeichnet in der Computergrafik die Bildsynthese („Rendering“) unter Berücksichtigung der in der Natur vorkommenden großen Helligkeitsschwankungen. Im Gegensatz zu den herkömmlichen 256 Helligkeitsabstufungen pro Farbkanal werden beim HDRR Farben intern mit ausreichend hoher Präzision repräsentiert, um einen sehr großen Bereich von Helligkeiten abzudecken. Dies ermöglicht die Darstellung starker Kontraste ohne übermäßigen Detailverlust und die Anwendung von Effekten wie der Simulation von Linsenstreuung.

Das Ergebnis des HDRR-Prozesses ist ein HDR-Bild, dessen Dynamikumfang zur Darstellung mittels Tone Mapping verringert werden muss. Da beim Tone Mapping versucht wird, Bilddetails beizubehalten, können auch Szenen mit großem Helligkeitskontrast dargestellt werden, ohne dass sehr helle oder sehr dunkle Bereiche durch einen geringen Helligkeitsumfang begrenzt werden und als reines Schwarz oder reines Weiß erscheinen. Ein Beispiel für eine Szene, in der die Vorteile von HDRR deutlich werden, ist eine dunkle Höhle, die in einen sonnenbestrahlten Außenbereich führt.

Quelle der Zitate: Wiki. Spezielle Fachtermina von entspr. zeitschr. oder Seiten erspare ich mir mal jetzt hier, dazu ist meine Zeit, zur Zeit, zu begrenzt. Sitze bei der Arbeit.

Das die Ausführung derzeit rein intern ist, hat eben genau mit den Monitoren zu tun, die dies im Consumer-Bereich eben nicht darstellen könnten. Der Prozess kann aber von mod. GPUs ohne Weiteres, nach aussen geführt werden, sobald dies erforderlich/sinnvoll ist.


[Beitrag von eraser4400 am 21. Jan 2016, 12:37 bearbeitet]
-Didée-
Inventar
#63 erstellt: 21. Jan 2016, 12:59
Du verwurstelst aber Quelldaten einerseits und Darstellung andererseits. Im PC berechnen kann man viel. 3- oder 4-dimensionale Körper die kein Display darstellen kann, Tonfrequenzen die kein Lautsprecher wiedergeben kann. Und natürlich auch künstliches HDR in einer 3D-Engine, die aber seit 2004 kein Consumerdisplay darstellen und (fast) keine Consumer-GraKa überhaupt ausgeben kann. Deswegen wird's zur Ausgabe wieder reduziert, das Ergebnis sieht eigentlich eher un- als realistischer aus, und man hat am Ende eben kein HDR.
eraser4400
Inventar
#64 erstellt: 21. Jan 2016, 13:37
Da TV-Displays ja mittlerweile HDR darstellen können, wird sich der Monitor-Sektor sicher auch bald auf das Level heben. Hoff' ich zumindest. Bis dahin, lassen wir das Thema besser ruhen, da ja derzeit einfach kein Vergleich möglich ist.

Bei nVidia-Karten zb. ist das aber seit einigen generationen kein Problem mehr, da die einges. GPUs identisch sind mit denen der Profi-Karten (zumind. in den leistungsstarken Karten). Muss halt nur noch die API freigeben und ab gehts mit HDRR.


[Beitrag von eraser4400 am 21. Jan 2016, 13:38 bearbeitet]
Blobla
Schaut ab und zu mal vorbei
#65 erstellt: 08. Mrz 2016, 01:44
Hey kann mir spontan jemand einen Gamer-fernseher empfehlen der nichts unnötiges brauch, sondern nur einen geringen Input-Lag und zwar unter 600 € und 49 Zoll ?
Hardrock82
Inventar
#66 erstellt: 08. Mrz 2016, 09:24
LG 49 LF 630 oder 6309 für 585€ über Amazon.
Niedriger Inputlag..hm..was stellst du dir darunter vor,
jeder sieht das Thema anderst,
evtl. würden dir 40-50ms reichen.

Niedrigere Werte gäbe es bei Sony oder Samsung (letzteres wenn man echt das niedrigste anstrebt)
aber dann musste 48/50" nehmen,
da 49" eher den IPS Panel LCDs vorenthalten ist.

Dir sollte aber gleich klar sein,
das man diesen niedrigen Input-lag
durch schlechtere Bildperformance (Artefakte/Ruckler/Schlierenbildung) sich erkauft.

Will man dies nicht dann muss man mehr Geld ausgeben und zu Sony/Panasonic Geräte greifen
die auch ausserhalb vom Spiel Modus noch akzeptable Werte aufweisen,
selbst wenn die Bewegtbildoptimierung aktiv ist.
Berndese
Ist häufiger hier
#67 erstellt: 21. Jul 2016, 19:00
Habt Ihr was 43Zoll artiges fürn low budget Preis (500-600)
Hardrock82
Inventar
#68 erstellt: 21. Jul 2016, 23:09
Samsung 43" JU 6050 (UHD)
LG 43" LF 6309 (Full HD)
eraser4400
Inventar
#69 erstellt: 22. Jul 2016, 08:58
Das hier ist kein Kaufberatungsthread! Bitte diesen also auch nicht dafür missbrauchen.
cell44
Schaut ab und zu mal vorbei
#70 erstellt: 11. Aug 2016, 00:12
Ich habe bei Media Markt ohne Recherche mir einen Sony KDL-48WD655 andrehen lassen. Mir wurde gesagt, der sei gut für Gaming, ist er aber voll nicht. Nun frage ich mich, ob man mit einem Fernseher überhaupt professionell daddeln kann. Leider finde ich nirgendwo den Input-Lag-Wert meines Fernsehers im Internet, um mal eine Referenz zu bekommen. Kann mir da jemand helfen? Vielen Dank im Voraus!
Beipackstrippe
Hat sich gelöscht
#71 erstellt: 11. Aug 2016, 15:29
42ms, was dem Durchschnittsdaddelfritzen meist vollkommen genügt.
Aber wenn man höhere (schnellere) Ansprüche hegt, sollte man sich vorher gut informieren.
cell44
Schaut ab und zu mal vorbei
#72 erstellt: 11. Aug 2016, 17:37
Ja, das war ziemlich blöd von mir. Vielen Dank für den Wert! Darf ich fragen, wo du den her hast? Für eventuelle weitere Recherche...

Mir scheint allerdings, dass man für wirklich ambitioniertes Gaming nicht an einem Monitor vorbei kommt. Die schnellsten bezahlbaren Fernseher liegen ja bei 30 ms, und selbst wäre noch viel zu langsam.
cell44
Schaut ab und zu mal vorbei
#73 erstellt: 11. Aug 2016, 18:17
Und welcher Monitor ist so richtig richtig fix? Der Samsung U28E590D hier klingt gut, scheint schnell, bezahlbar und groß:
http://www.4k-monitor-test.com/samsung-u28e590d-test

Stimmen die Kenner hier zu?
eraser4400
Inventar
#74 erstellt: 12. Aug 2016, 09:25
Nun frage ich mich, ob man mit einem Fernseher überhaupt professionell daddeln kann.
>Professionell sicher nicht. Da gibt es Keinen. Spielst du denn echt im eSport-Sektor? Na, wenn ja, dann kommt man nicht an einen Monitor vorbei.
Dann muss man aber auch eines dieser Grafikmonster im Rechner stecken haben, welches die 60hz dauerhaft unter 4K bei allen derzeit erhältl. Games erreicht. Da gibt es derzeit nur eine Karte: nVidia Titan X (ca. 1300.-)


[Beitrag von eraser4400 am 12. Aug 2016, 09:25 bearbeitet]
cell44
Schaut ab und zu mal vorbei
#75 erstellt: 12. Aug 2016, 10:18
"Professionell" ist noch übertrieben. Sagen wir "ambitioniert". Ich spiele eigentlich nur FIFA und da ist schon die minikleinste Verzögerung ein riesiger Nachteil und macht Präzision unmöglich. Habe mir jetzt eine XBOX One besorgt, die soll an den Monitor angeschlossen werden.
eraser4400
Inventar
#76 erstellt: 12. Aug 2016, 11:17
Die One kann aber gar kein 4K. Also benötigt man halt auch keinen 4K-Moni.
cvzone
Stammgast
#77 erstellt: 12. Aug 2016, 12:52
Er wird wohl die One S meinen, die UHD Bluray und in Spielen 4K Upscaling kann.


[Beitrag von cvzone am 12. Aug 2016, 12:53 bearbeitet]
cell44
Schaut ab und zu mal vorbei
#78 erstellt: 12. Aug 2016, 18:33
Ist nur eine "normale" XBOX One. Kommt es dadurch zu größerem Input lag, weil der Monitor es auf 4K hochrechnen will? Ich finde keine 28-Zoll-Gaming-Monitore ohne 4K...
eraser4400
Inventar
#79 erstellt: 12. Aug 2016, 21:58
Ne in 28" gibts tatsächl. keine, aber in 27" gibts einige, sogar auch von Samsung u. mit ähnlichem Design, sogar in curved und ähnlich schneller Reaktion
Das Geld für 4K kann man sich echt sparen, das ist ja Perlen vor die Säue, da du das halt so nie zu sehen bekommst.
cell44
Schaut ab und zu mal vorbei
#80 erstellt: 26. Aug 2016, 11:31
Wenn man wirklichwirklich ohne Input Lag geil daddeln will:
https://www.amazon.d...chwarz/dp/B00SJANIWA

Hab mir das Ding geholt und bin endlich zufrieden. Vielen Dank nochmal für eure Hilfe!
eraser4400
Inventar
#81 erstellt: 26. Aug 2016, 13:08
na also...viel Freude damit!
cell44
Schaut ab und zu mal vorbei
#82 erstellt: 26. Aug 2016, 13:10
Danke!
Suche:
Gehe zu Seite: |vorherige| Erste Letzte
Das könnte Dich auch interessieren:
Input Lag
RanOne am 08.04.2013  –  Letzte Antwort am 21.04.2013  –  3 Beiträge
Input Lag - Umfrage und Testseite
zeus@ am 29.04.2009  –  Letzte Antwort am 29.04.2009  –  4 Beiträge
Input-Lag
Kalle_S am 12.04.2008  –  Letzte Antwort am 09.03.2009  –  18 Beiträge
INPUT LAG TV
Parasonic1703 am 19.08.2013  –  Letzte Antwort am 19.08.2013  –  4 Beiträge
100 Hz Technik
GrandMastaX am 28.02.2009  –  Letzte Antwort am 08.03.2009  –  26 Beiträge
100 hz vs. 200 hz
tekken10 am 09.05.2009  –  Letzte Antwort am 25.05.2009  –  5 Beiträge
Input Lag - Anschlüsse
DVD-Freak am 11.03.2010  –  Letzte Antwort am 12.03.2010  –  3 Beiträge
Input Lag Übersicht
AnakinSkywalker am 27.10.2008  –  Letzte Antwort am 27.06.2011  –  124 Beiträge
200 Hz Technologie VS 100 Hz Technologie ?
The_Unknown am 26.10.2008  –  Letzte Antwort am 26.08.2011  –  246 Beiträge
B530 vs TFT 0ms Input Lag - Meßfehler ?
humanica am 30.11.2011  –  Letzte Antwort am 16.12.2011  –  2 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.708 ( Heute: 11 )
  • Neuestes Mitgliedgune
  • Gesamtzahl an Themen1.551.048
  • Gesamtzahl an Beiträgen21.536.754