Gehe zu Seite: |vorherige| Erste . 7 8 9 10 11 12 13 14 15 16 . 20 Letzte |nächste|

CES 2016 - Die Sony-TVs für 2016

+A -A
Autor
Beitrag
Onbekend
Inventar
#501 erstellt: 27. Feb 2016, 15:56

Ralf65 (Beitrag #494) schrieb:
vielleicht auch noch interessant, lt. einer Info aus dem AVS sollen die 2016er Sony's bereits den neuen VP9 für HD + 4K Inhalte von YouTube z.B. unterstützen

In der Tat... interessant... aber genauer genommen geht es um den "VP9 Profile 2" support, was das VP9 um eine HDR Spezifikation erweitert... Das erste VP9 unterstützen nämlich bereits die 2015er Modelle, bin ich zumindest der Meinung.


noch weiß niemand mit 100% Sicherheit, ob diese Leisten "oben/unten" oder "links/rechts" angeordnet sind

Ehrlich gemeinte Frage: Was lässt dich noch an der Aussage von Gerrit und der HDTV zweifeln? Beide haben eigentlich bereits unmissverständlich zum Ausdruck gebracht, dass die LED's seitlich angeordnet sind, und nicht oben/unten.
Onbekend
Inventar
#502 erstellt: 27. Feb 2016, 15:58

chrjjs (Beitrag #493) schrieb:
Das heisst die 8er Reihe hat normale led's?

Die XD85 Reihe verfügt über kein Local Dimming, lediglich ist ein Frame-Dimming implementiert, sprich: das TV kann nur den Bildschirm insgesamt heller/dunkler schalten.
Onbekend
Inventar
#503 erstellt: 27. Feb 2016, 16:00

von_Braun (Beitrag #499) schrieb:
An Hand der Seitenverhältnisse, in der schematischen Darstellung, ist für mich die Anordnung der LED Leisten völlig klar.

Die Grafik sollte man nicht für bare Münze halten. Die ist bereits durch diverse Aussagen relativiert worden.
Ralf65
Inventar
#504 erstellt: 27. Feb 2016, 16:56
Ich zweifele ja gar nicht daran, aber die Aussage lässt halt Spielraum....
ehrlich gemeinte Antwort, was heisst "seitlich" (EDGE), ein Rechteck hat vier Seiten und nirgends ist festgelegt, das seitlich links oder rechts bedeuten muss

Es gibt genug Beispiele von so bezeichneten EDGE Geräten, die z.B. nur eine einzige LED Leiste verbaut haben, diese befindet sich jedoch an der Unterseite (Philips z.B.)

Infos in Aussagen können daher nun mal teils in mehrere Richtungen interpretiert werden

ein eindeutig an der Aussage seitliche Beleuchtung wäre für mich der Zusatz links und rechts oder oben und unten


[Beitrag von Ralf65 am 27. Feb 2016, 17:21 bearbeitet]
icons
Inventar
#505 erstellt: 27. Feb 2016, 17:02

Onbekend (Beitrag #502) schrieb:

chrjjs (Beitrag #493) schrieb:
Das heisst die 8er Reihe hat normale led's?

Die XD85 Reihe verfügt über kein Local Dimming, lediglich ist ein Frame-Dimming implementiert, sprich: das TV kann nur den Bildschirm insgesamt heller/dunkler schalten.


eigentlich wieder gleich wie der X8509C
Ralf65
Inventar
#506 erstellt: 27. Feb 2016, 17:10
innerhalb der kleineren Serien (8xx) als solches, wird es auch keine grundlegenden technischen Neuerungen geben.
Die X93 / X94 Serie waren ja auch schon im Vorjahr die technischen Highlights und bilden dementsprechend auch in diesem Jahr mit den technischen Eigenschaften ein Alleinstellungsmerkmal

bin gespannt, in wie weit das FALD System beim XD94 gegenüber dem X940C aufgearbeitet wurde
Beim XD93 ist durch die neue "SlimBacklight" Technik ja ein realtiv großer Schritt im Vergleich zum Vorjahres X930C gemacht worden


[Beitrag von Ralf65 am 27. Feb 2016, 17:11 bearbeitet]
chrjjs
Inventar
#507 erstellt: 27. Feb 2016, 17:14

icons (Beitrag #505) schrieb:

Onbekend (Beitrag #502) schrieb:

chrjjs (Beitrag #493) schrieb:
Das heisst die 8er Reihe hat normale led's?

Die XD85 Reihe verfügt über kein Local Dimming, lediglich ist ein Frame-Dimming implementiert, sprich: das TV kann nur den Bildschirm insgesamt heller/dunkler schalten.


eigentlich wieder gleich wie der X8509C


Wie war das local dimming beim x8509c ?
freeman2810
Inventar
#508 erstellt: 27. Feb 2016, 19:03
Genau wie beim aktuellen Modell auch
Onbekend
Inventar
#509 erstellt: 27. Feb 2016, 19:57

chrjjs (Beitrag #507) schrieb:
Wie war das local dimming beim x8509c ?

Das X85C hatte kein Local Dimming.


[Beitrag von Onbekend am 27. Feb 2016, 19:58 bearbeitet]
Onbekend
Inventar
#510 erstellt: 27. Feb 2016, 20:07

Ralf65 (Beitrag #504) schrieb:
Ich zweifele ja gar nicht daran, aber die Aussage lässt halt Spielraum....
ehrlich gemeinte Antwort, was heisst "seitlich" (EDGE), ein Rechteck hat vier Seiten und nirgends ist festgelegt, das seitlich links oder rechts bedeuten muss

Es gibt genug Beispiele von so bezeichneten EDGE Geräten, die z.B. nur eine einzige LED Leiste verbaut haben, diese befindet sich jedoch an der Unterseite (Philips z.B.)

Infos in Aussagen können daher nun mal teils in mehrere Richtungen interpretiert werden

ein eindeutig an der Aussage seitliche Beleuchtung wäre für mich der Zusatz links und rechts oder oben und unten

Na gut, die HDTV hat zwar gesagt, dass man mit dem Slim Backlight Drive wieder die Cinemascopebalken dimmen kann, aber das muss nicht stimmen, so gesehen gebe ich dir recht.


[Beitrag von Onbekend am 27. Feb 2016, 20:08 bearbeitet]
klinisch_brot
Gesperrt
#511 erstellt: 29. Feb 2016, 00:10

X94D schrieb:
94


X93D schrieb:
93


X85D schrieb:
85

Wer keinen geneigten Bildschirm haben möchte, muss zur 8er Serie greifen oder wie
chrjjs
Inventar
#512 erstellt: 29. Feb 2016, 00:15
Sieht so aus. Was solll das von sony. Vob welcher seite hast du die bilder ?
Patro90
Neuling
#513 erstellt: 29. Feb 2016, 00:39
@ klinisch brot

muss dir leider sagen das du schlecht recherchiert hast.
Alle TV´s aus dem neuen Line Up sind genau senkrecht und defenitiv NICHT geneigt.

Wenn man bei Sony auf der Seite die XD93/94 Serie anklickt und dann auf Diashow sind da die richtigen seitlichen Bilder.

Was du rausgesucht hast, sind perspektivisch Bilder von leicht links unten, da sieht das halt etwas schief aus.

Also keine Bange die sind alle gerade
klinisch_brot
Gesperrt
#514 erstellt: 29. Feb 2016, 01:09
Ich wollte eigentlich nur die Lücke bis zum nächsten, abgefilmten Video, das für die ganzen Einfallspinsel hier auf schlechte Bildqualität etc. schließen lässt, überbrücken...
hagge
Inventar
#515 erstellt: 29. Feb 2016, 10:46

chrjjs (Beitrag #462) schrieb:
Es wird aber bei der XD 85 Reihe mit HDR beworben.

Was habe ich den genau für Nachteile ?

Es gibt gewisse Mindestanforderungen, damit man das Ultra-HD-Premium-Logo führen darf. Dazu gehört, dass der TV einen gewissen Mindestkontrast haben muss, Local Dimming mit einer gewissen Mindestanzahl Zonen, eine gewisse Mindesthelligkeit, Signale mit 10 Bit/Farbe verarbeiten muss, die HDR-Daten über HDMI entgegen nehmen kann und einen gewissen Farbraum abdecken muss. Mal so grob gesagt, im Detail gibt es vermutlich noch weit mehr Anforderungen.

Sobald also ein Gerät eine dieser Bedingungen verletzt, darf er sich nicht mit dem Ultra-HD-Premium-Logo schmücken. Das hei0t aber nicht automatisch, dass er gar nichts in Richtung HDR machen kann. So wird auch ein XD85 vermutlich einen recht großen Farbraum haben, die 10-Bit-Verarbeitung können, die HDR-Informationen verarbeiten können und einen halbwegs hohen Kontrast haben. Was er halt nicht hat, ist das Local Dimming. Das heißt auch mit dem XD85 wird man HDR-Quellen anschauen können, nur eben nicht in der ganz bis zum letzten ausgereizten Pracht. Die bleibt halt den noch besseren Geräten vorbehalten.

Ich denke aber nicht, dass es beim X85 einen Rückschritt zu den Vorjahresmodellen gibt, eher im Gegenteil eine Verbesserung.


Der Fernseher rechnet doch das TV Signal in 4K um (Mehrwert zu meinem TV)
Ich kann UHD-Player anschließen und UHD Blu Rays abspielen mit einem bessern Bild als mit normalen Blu Rays ? (Mehrwert zu meinen Blu rays)

Oder kann ich eins von den oben genannten Punkten nicht ?

Normale UHD-BDs kann der XD85 auf jeden Fall. Es geht ja momentan nur um die HDR-Fähigkeiten. Die werden aber entweder auf ganz eigenen Scheiben angeboten (oder als entsprechend gekennzeichnete Downloads). Also so ähnlich wie es momentan mit den 3D-BluRays passiert: man kann einen 3D-Version kaufen oder eine normale Version. So wird man bei der UHD-BluRay auch eine HDR-Version kaufen können oder eine normale. Möglicherweise werden die HDR-Daten bei manchen Scheiben auch in den normalen UHD-Stream eingebettet. Aber dann werden diese Daten von TVs, die kein HDR können, einfach ignoriert.

Aber wie gesagt, der XD85 kann ja HDR, er kann also solche HDR-Discs wiedergeben und auch einen gewissen Mehrwert, den HDR bietet, darstellen. Nur halt nicht ganz so perfekt wie es beispielsweise ein XD93 kann. Und auch der XD93 kann es dann wieder nicht so perfekt, wie es ein XD94 kann. Und der kann es dann vermutlich auch wieder nicht so gut, wie es ein ZD95 kann, der gerüchteweise gegen Ende des Jahres erscheinen soll. Es gibt halt immer noch ein Gerät, dass es *noch* besser kann. Aber eben auch entsprechend teurer ist.

Gruß,

Hagge


[Beitrag von hagge am 29. Feb 2016, 10:48 bearbeitet]
Artchi
Stammgast
#516 erstellt: 29. Feb 2016, 10:55
Wegen den UltraHD-Blurays: die wird jeder Sony darstellen können, egal ob er HDR kann oder nicht. Einfacher Grund: UltraHD-Blurays (inkl. HDR) wird man sogar auf einem HD-TV anschauen können! Weil die UHD-BD-Norm es offiziell erlaubt, das es ein Downscaling und Downsampling auf HD-TV gibt. D.h. der Player wird dafür sorgen passendes auszugeben.
Somit wird man mit einem UHD-TV wie den XD85 erst Recht keine Probleme bekommen, UHD-BDs anzuschauen.

Selbst wenn der UHD-TV kein HDR (ausgeben) können sollte, wird man ja von anderen UHD-BD-Features profitieren: mind. 8 Bit-Farbtiefe (hat ja die aktuelle BD nicht!), 4k-Auflösung und von manchen Filmen HFR (also 50 oder 60 Hz).

XD85 kaufen und fertig!


[Beitrag von Artchi am 29. Feb 2016, 10:57 bearbeitet]
Onbekend
Inventar
#517 erstellt: 29. Feb 2016, 11:28

Artchi (Beitrag #516) schrieb:
Selbst wenn der UHD-TV kein HDR (ausgeben) können sollte, wird man ja von anderen UHD-BD-Features profitieren: mind. 8 Bit-Farbtiefe (hat ja die aktuelle BD nicht!), 4k-Auflösung und von manchen Filmen HFR (also 50 oder 60 Hz). XD85 kaufen und fertig! :D

Die derzeitige Bluray-Spezifikation sieht sehr wohl 8-bit vor. Du meinst hier sicherlich 10-bit... und es gibt keine Bluray Filme mit 10-bit Tiefe.

Ich glaube auch, dass das XD85 ein tolles Gerät wird. Genaueres werden aber die ersten Tests und vor allem die ersten User-Tests verraten.


[Beitrag von Onbekend am 29. Feb 2016, 11:30 bearbeitet]
chrjjs
Inventar
#518 erstellt: 29. Feb 2016, 11:51
Das hört sich ja gut, an.

Denke ja das man dann im Normalen TV Betrieb bei HD auch richtige Unterschiede sehen wird gegenüber zu meinem TV, da ja alles in 4 K umgerechnet wird.

Danke für die guten Tipps, werde mal abwarten.

Gibt es eigentlich einen Unterschied zwischen dem 55 und 65 Zoll, was die Technik angeht ?
Artchi
Stammgast
#519 erstellt: 29. Feb 2016, 12:22

Onbekend (Beitrag #517) schrieb:

Die derzeitige Bluray-Spezifikation sieht sehr wohl 8-bit vor. Du meinst hier sicherlich 10-bit... und es gibt keine Bluray Filme mit 10-bit Tiefe.

Nein, so einfach ist es nicht! Die HD-Spec sieht vor, das sich der Farbraum an den alten analogen Farbraum richtet, und der ist keine 8 Bit. Das hätte damals für den Übergang von SD zu HD zu zu vielen Konflikten geführt. Denn die Bluray-Spec und Bluray-Player haben ja sehr viele Jahre offiziell Analog-Anschlüssen (Compenent) unterstützt. Erst später wurde es aufgehoben.

Vorweg: 8 Bit ist 256 bzw. 0 bis 255. Bei DVD- und BD-Video gilt:

"Die Luminanz Y reicht bei der eingesetzten 8-Bit-Codierung von 16 bis 235, die Chroma-Werte reichen jeweils von 16 bis 240 (aus theoretisch möglichen Werten von 0 bis 255). Der Grund dafür, den Wertebereich derart einzuschränken, war der Wunsch, abgeschnittene Signalspitzen am oberen und unteren Ende der Chroma- und Luminanzkanäle zu vermeiden, die bei der Übertragung analoger Signale durch Überschwingen entstehen können. Die Folge der Bereichsverkleinerung ist, dass Luminanz-Werte zwischen 0 und 16, also dunkelgraue Farben als Schwarz und hellgraue Farben zwischen 236 und 255 als Weiß dargestellt werden. Bei den Chroma-Kanälen hat die Bereichseinschränkung den Effekt, dass die Farben Grün und Rot bzw. Gelb und Blau schon bei Werten von 16 oder 240 den höchsten Sättigungswert erreichen. Dies bedeutet natürlich eine starke Reduzierung der mit 8 Bit theoretisch darstellbaren Buntheits- und Helligkeitswerte."

Deshalb gibt es den Erweiterten Farbraum (unter anderem x.v.Color) der erst die vollen 8 Bit ausnutz!. Dieser existiert aber sowohl bei DVD-Video als auch bei HD-Bluray eben nicht! Du hast bei HD-Bluray und HD-TV und den ganzen HD-Streaming-Diensten keine vollen 8 Bit.


Wer jetzt einen HD-TV mit 8-Bit Panel hat, kann diesen nur durch z.B. PC- oder Konsolen-Spiele (bei der PS3 muss man den x.v.Color aktivieren!) oder durch selbst aufgenommene Camcorder-Videos im AVCHD-Format ausnutzen. (Denn AVCHD hat im Gegensatz zu HD-BD volle 8-Bit.)

Mit der UltraHD-BD wird man endlich mind. volle 8 Bit erhalten... optimalerweise aus den möglichen 10 Bit, wenn der Film entsprechend so abgelegt ist. Und die UltraHD-BD-Player werden offiziell volle 8 Bit für HD-TV-Geräte ausgeben können. Die UHD-BD wird also nochmal die Bildqualität für HD-TVs steigern, was mit der BD nicht möglich war.

Und UHD-TVs werden sowieso profitieren, egal ob HDR oder nicht.


[Beitrag von Artchi am 29. Feb 2016, 12:39 bearbeitet]
netguru
Inventar
#520 erstellt: 29. Feb 2016, 12:32
Hm,

blöde ernstgemeinte Frage, warum "brauche" ich dann überhaupt 10Bit Panels?
Onbekend
Inventar
#521 erstellt: 29. Feb 2016, 12:56

Artchi (Beitrag #519) schrieb:
Du hast bei HD-Bluray und HD-TV und den ganzen HD-Streaming-Diensten keine vollen 8 Bit.

Stimmt!... Du hast recht... ich habe das auf die UHD-Premium Spezifikation bezogen, was mindestens eine 10-bit Kodierung des Filmmaterials verlangt. Mein Fehler.
Onbekend
Inventar
#522 erstellt: 29. Feb 2016, 13:04

netguru (Beitrag #520) schrieb:
Hm,

blöde ernstgemeinte Frage, warum "brauche" ich dann überhaupt 10Bit Panels?

Generell: Mit einem 10-bit Panel kann man Farbabstufung viel feiner darstellen als mit einem 8-bit Panel. Mittels "Frame Rate Control (FRC)" kann man zwar mit einem 8-bit Panel auch 10-bit "simulieren", ist aber wohl/anscheinend trotzdem nicht so gut wie ein echtes 10-bit Panel. Außerdem: mit einem 10-bit Panel kann man mittels FRC eine 12-bit Darstellung simulieren, was wohl mit einem 8-bit Panel nicht gehen soll.
HDGuru


[Beitrag von Onbekend am 29. Feb 2016, 13:09 bearbeitet]
klinisch_brot
Gesperrt
#523 erstellt: 29. Feb 2016, 13:28

Patro90 (Beitrag #513) schrieb:
dings

Es lag auch an den „in Szene gesetzten“ Produktfotos, auf denen es ebenfalls so aussieht, als wäre der X9 geneigt:

X8 schrieb:
x8

X9 schrieb:
x9
Artchi
Stammgast
#524 erstellt: 29. Feb 2016, 13:29
Es gibt da draußen noch so viele LCD-Panels (auch für Notebooks, PCs und TVs) die immer noch mit 6 oder 7 Bit Panel rum krebsen. Man soll es nicht glauben, ist aber so.

Wer ein echtes 8 Bit Panel hat, kann sich schon mal glücklich schätzen.

Mit 8 Bit bekommt man volle 16,7 Mio. Farben, mit 256 Helligkeitsstufen. Das reicht aber nicht immer für große Helligkeitsverläufe (von Hell zu Dunkel), z.B. den Himmel.

Mit 10 Bit hast du 1024 Helligkeitsstufen (über 1 Billionen Farben). Das ist eine deutliche Verbesserung um bei großen Flächen bessere Abstufungen zu schaffen. Aber natürlich ist das immer noch zu wenig. in 10 oder 20 Jahren werden wir auf 11 oder 12 Bit umsteigen. Aber erstmal müssen alle bei 8 Bit und 10 Bit ankommen.

Du kannst immer irgendwie mehr Farben bzw. Farbabstufungen simulieren. Z.B. Color-Dithering oder das schnelle Flackern von Farbpixeln (bei LCD durch LED-Backlight bei Plasma durch Pixel-Impulse). Es ist natürlich alles nur eine Hilfe die die Trägheit des Auges nutzt. Besser als gar nichts. Aber wenn das System nativ 8 oder besser 10 Bit hat, sind feinere Abstufungen möglich.
Vorausgesetzt das Material macht mit: Kamera und Medium.


[Beitrag von Artchi am 29. Feb 2016, 13:54 bearbeitet]
netguru
Inventar
#525 erstellt: 29. Feb 2016, 14:42
Danke für die Antworten.
"Vorausgesetzt das Material macht mit: Kamera und Medium"

Grade dass frage ich mich ja, wenn ich jetzt den LCD mit 10 Bit Panel habe, welches Material reizt ihn den in der (nahen) Zukunft aus? So wie ich dass verstehe, ist die UHD Bluray nur 8 Bit?
Onbekend
Inventar
#526 erstellt: 29. Feb 2016, 14:59
Wenn eine UHD-Bluray das UHD-Premium Siegel hat, dann MUSS es 10-bit sein. Es sind bereits einige mit 10-bit angekündigt... wenn sie HDR sind, müssen sie ebenfalls 10-bit sein.

Beispiel

Und nun auch in Deutschland bestellbar!


[Beitrag von Onbekend am 29. Feb 2016, 15:23 bearbeitet]
Artchi
Stammgast
#527 erstellt: 29. Feb 2016, 15:33

netguru (Beitrag #525) schrieb:

Grade dass frage ich mich ja, wenn ich jetzt den LCD mit 10 Bit Panel habe, welches Material reizt ihn den in der (nahen) Zukunft aus? So wie ich dass verstehe, ist die UHD Bluray nur 8 Bit?

Nein, die UHD-BD kann natürlich 10 Bit. Aber der Film muss natürlich auch so aufgenommen worden sein... und das kann nicht jede Kamera. Auch haben die wenigsten Profi-Kameras HDR. Bei Computer-generierten Filmen (oder Anteile) ist es aber einfacher HDR umzusetzen... aber reale Filmaufnahmen?

Die UHD-BD ist aber immerhin schon mal das Medium.

Ausreizen kann man 10 Bit-Panels erstmal nur wenig. Es hatte doch schon ewig gedauert, bis überhaupt echtes HD-Material auf den Markt kam. Selbst heute werden Top-Produktionen immer noch mit Analog-Kameras und 24 Bilder pro Sekunde aufgenommen. Die Kinofilm-Macher müssen erstmal auf HFR (mind. 48 Hz) kommen. Aber da sind nur die wenigsten Kameras dazu fähig. Die ganzen tollen HD- und UHD-Demos in den Elektromärkten wurden z.B. alle mit 50 oder 60 Hz aufgenommen! Da sieht die sogenannte Bewegtbildauflösung natürlich super geil aus. Aber leg mal nen 24 Hz-HD/-UHD-Film ein: wo ist die geile Bewegtbildauflösung geblieben?

Es ist noch einlanger weg, bis Kinofilme das UHD ausnutzen können. 4k-Auflösung schaffen sie heute recht einfach. 10-Bit und HDR ist aber schon eine Hürde! Und HFR ist so gut wie unmöglich. Lediglich Peter Jackson hat es bisher mit Hobbit 3 geschafft das gesamte Spektrum an UltraHD-Features auszureizen: 4k, HDR und HFR! Jetzt fehlt nur noch, das er das auf UHD presst, weil die HD-BD leider nur 24 Hz beu Full HD schafft.


[Beitrag von Artchi am 29. Feb 2016, 15:42 bearbeitet]
chrjjs
Inventar
#528 erstellt: 29. Feb 2016, 15:39
Mein Händler hat mir gerade geschrieben, er wird den XD 85 in 65 Zoll für 2649 Euro verkaufen. Der TV soll ende März Anfang April bei Ihm eintreffen.
Onbekend
Inventar
#529 erstellt: 29. Feb 2016, 15:45

Artchi (Beitrag #527) schrieb:
Ausreizen kann man 10 Bit-Panels erstmal nur wenig. Es hatte doch schon ewig gedauert, bis überhaupt echtes HD-Material auf den Markt kam. Selbst heute werden Top-Produktionen immer noch mit Analog-Kameras und 24 Bilder pro Sekunde aufgenommen.

Naja... die Bilder pro Sekunde haben zunächst mal keine Relevanz beim Thema 10-bit Panels.
Und sicherlich wird es wirklich lange dauern, bis das Format vollständig ausgereizt ist, aber das heißt meiner Meinung nach nicht, dass man nicht jetzt schon von den 10-bit-Panels profitieren kann.


[Beitrag von Onbekend am 29. Feb 2016, 15:45 bearbeitet]
Artchi
Stammgast
#530 erstellt: 29. Feb 2016, 16:09
Mit dem 10 Bit Panel hat das nichts zu tun, richtig. Bewegtbildauflösung ist auch schon vorher ein Thema.
Aber es ging mir allgemein um Ultra HD, welches mehr als nur aus 10 Bit oder 4k besteht. Wird gerne mal der Rest vergessen, der das Erlebnis noch durch die HFR verbessert werden kann.

Die 24 Bilder pro Sekunde stammen noch aus der Schwarz-Weiß-Kinozeit... da tut sich leider im Filmbereich seit 100 Jahren nichts. Aber die Industrie verkauft uns gerne immer mehr Pixel, die aber bei jedem Kameraschwenk "verloren" gehen, weil keine hohe Bewegtbildauflösung da ist.


[Beitrag von Artchi am 29. Feb 2016, 16:14 bearbeitet]
Onbekend
Inventar
#531 erstellt: 29. Feb 2016, 16:28
Interessant wäre es in der Tat, ob der Hobbit auch mal als HFR UHD Bluray rauskommen könnte... 48 FPS sind zwar nicht spezifiziert, aber 50 FPS schon... man könnte also theoretisch mittels eines PAL-Speed-Up Verfahrens (wie man's bei der PAL- DVD gemacht hat bzw. noch macht) die 48 FPS auf 50 FPS beschleunigen und dann als UHD rausbringen.
Artchi
Stammgast
#532 erstellt: 29. Feb 2016, 16:58
Warum Peter Jackson 48 fps gewählt hat, wird sein Geheimnis bleiben. Wahrscheinlich zu viel Speicherplatz bei 60 Hz in der Produktion, bei 48 Hz exakt doppelt soviel.

James Cameron hatte nämlich 60 fps vorgeschlagen und wollte das auch für seinen kommenden Avatar 2 Film so umsetzen, PJ hat aber JC ignoriert. Jetzt weiß ich leider nicht, ob JC weiter auf seine 60 fps gesetzt hat... Ich kann mir vorstellen, das er Avatar 2 trotzdem in 60 Hz produziert. Und mit GlückAvatar 2 auf UHD-BD dann in 60 Hz rausbringt.


Und seit Jahren hoffe ich, das uns die Filmindustrie mit den 24 Hz verschonen wird, besonders wenn jetzt die UHD-BD raus kommt, hat keiner mehr eine Ausrede.


[Beitrag von Artchi am 29. Feb 2016, 17:36 bearbeitet]
Onbekend
Inventar
#533 erstellt: 29. Feb 2016, 18:44


[Beitrag von Onbekend am 29. Feb 2016, 19:47 bearbeitet]
hagge
Inventar
#534 erstellt: 29. Feb 2016, 20:08
Hui, da ist einiges Richtiges dabei, aber auch einiges, was man so nicht ganz stehen lassen darf.


Artchi (Beitrag #519) schrieb:
Nein, so einfach ist es nicht! Die HD-Spec sieht vor, das sich der Farbraum an den alten analogen Farbraum richtet, und der ist keine 8 Bit.

Korrekt. Das liegt aber daran, dass die analoge Darstellung eben mit YUV umgesetzt wurde, und die Umrechnung von YUV auf RGB wiederum so definiert wurde, dass für Y der Wertebereich von 16 bis 235 und für U und V von 16 bis 240 geht. Das hast Du ja ganz richtig zitiert. Das heißt aber nicht, dass die Panels in den Fernsehern bisher keine 8 Bit konnten. Im Gegenteil, der Wertebereich musste auch bisher schon auf 0 bis 255 aufgespreizt werden, eben weil die TVs die vollen 8 Bit konnten. Abgesehen davon kamen beim TV auch bisher nicht nur Signale an, die von YUV her stammten, sondern auch direkte RGB-Daten mit Wertebereich 0-255, z.B. von PCs.


Deshalb gibt es den Erweiterten Farbraum (unter anderem x.v.Color) der erst die vollen 8 Bit ausnutz!.

Das ist so nicht richtig. x.v.Color unterstützt bis zu 12 Bit. Insofern werden da die 8-Bit nicht nur erreicht, sondern schon weit überschritten. Und damit ein TV die vollen 8-Bit unterstützt, muss er überhaupt kein x.v.Color haben. Er muss nur eine Umschaltung des RGB-Wertebereichs haben. Sprich man muss ihm sagen können ob der begrenzte Bereich ankommt und noch auf den vollen Wertebereich 0-255 gespreizt werden muss, oder ob schon der volle Bereich ankommt und nicht mehr gespreizt werden muss.


Wer jetzt einen HD-TV mit 8-Bit Panel hat, kann diesen nur durch z.B. PC- oder Konsolen-Spiele (bei der PS3 muss man den x.v.Color aktivieren!) oder durch selbst aufgenommene Camcorder-Videos im AVCHD-Format ausnutzen. (Denn AVCHD hat im Gegensatz zu HD-BD volle 8-Bit.)

Das ist natürlich komplett falsch. Selbst wenn es nur die von Dir genannten Grenzen (16-235/240) gäbe, machen 8 und mehr Bit im Panel durchaus sehr viel Sinn. Du vergisst nämlich einen ganz entscheidenden Punkt: das Bild kommt nicht 1:1 so wie es auf der DVD oder BD gespeichert ist, auf den Bildschirm. Sondern das Bild wird noch in ganz vielen Stufen nachbearbeitet: Helligkeit, Bildschärfe, Farbsättigung, Rauschfilter, Gamma, RGB-Kalibrierung, usw. Das sind alles Berechnungen, die auf die originalen Bilddaten angewendet werden und dazu führen, dass letztendlich beim Bildschirm ganz *andere* Werte ankommen. Und würden diese Berechnungen nur mit 8-Bit-Genauigkeit durchgeführt, wäre das Ergebnis schrecklich mit Aliasing-Effekten durchsetzt. Man würde also Farbtreppen/Color-Banding par excellence sehen. Das heißt schon bei diesen Berechnungen kommen 10 oder gar 12 Bit Rechentiefe zum Einsatz. Und je genauer ich dieses Ergebnis am Ende auf den Bildschirm bekomme, umso besser. Also selbst bei diesen eingeschränkten Eingangsdaten mit weniger als 8 Bit machen 10-Bit-Panels schon durchaus Sinn! Und setzt man "nur" ein 8-Bit-Panel ein, dann braucht man schon ein irgendwie gelagertes Dithering, damit man diese Aliasing-Effekte etwas unterdrücken kann.


Artchi (Beitrag #524) schrieb:
Es gibt da draußen noch so viele LCD-Panels (auch für Notebooks, PCs und TVs) die immer noch mit 6 oder 7 Bit Panel rum krebsen. Man soll es nicht glauben, ist aber so.

Das stimmt, 6 Bit sind bei Industriepanels durchaus üblich. Wobei bei Notebooks wohl in der Zwischenzeit 8 Bit der Standard ist. 7 Bit kenne ich hingegen gar nicht, das gibt es meines Wissens nicht.


Wer ein echtes 8 Bit Panel hat, kann sich schon mal glücklich schätzen.

Naja, die Fernseher haben eigentlich durch die Bank alle mindestens ein 8-Bit-Panel verbaut.


Mit 10 Bit hast du 1024 Helligkeitsstufen (über 1 Billionen Farben). Das ist eine deutliche Verbesserung um bei großen Flächen bessere Abstufungen zu schaffen. Aber natürlich ist das immer noch zu wenig. in 10 oder 20 Jahren werden wir auf 11 oder 12 Bit umsteigen. Aber erstmal müssen alle bei 8 Bit und 10 Bit ankommen.

Wie gesagt, die Bildverarbeitung intern im TV läuft durchaus mit 10 oder gar 12 Bit. So eine Berechnung kann aber durchaus auch extern passieren. Zum Beispiel wenn der BD-Player schon eine entsprechend hochwertige Vorverarbeitung macht (z.B. Super-Bitmapping), dann rechnet der schon auf 12 Bit hoch und schickt dann diese Bilder mit 12 Bit Genauigkeit per x.v.Color (was auch Deep Color genannt wird) zum TV. Hier braucht man dann also tatsächlich x.v.Color. Der TV kann dann bei seiner weiteren Verarbeitung für die Bildeinstellungen direkt auf diese 12 Bit aufsetzen. Dadurch entfallen entsprechende Rundungsfehler, die bei einer Rundung auf 8 Bit vor der Übertragung über das HDMI-Kabel entstehen könnten.


Du kannst immer irgendwie mehr Farben bzw. Farbabstufungen simulieren. Z.B. Color-Dithering oder das schnelle Flackern von Farbpixeln (bei LCD durch LED-Backlight bei Plasma durch Pixel-Impulse). Es ist natürlich alles nur eine Hilfe die die Trägheit des Auges nutzt. Besser als gar nichts. Aber wenn das System nativ 8 oder besser 10 Bit hat, sind feinere Abstufungen möglich.

Das zeitliche Dithering der Farben bei LCDs hat nichts mit dem Backlight zu tun. Da wird wirklich im LCD-Panel selbst schnell zwischen der einen und der anderen Farbe umgeschaltet. Da es ja immer zwei benachbarte Farbwerte sind, ist der Unterschied sowieso minimal und das Auge sieht i.a. nicht mal das Flimmern. Und darum ist diese Flackertechnik (die normalerweise "Frame Rate Control" oder kurz FRC genannt wird) auch in keinster Weise schlechter als ein echtes 10-Bit-Panel. Es wird praktisch keinen Menschen geben, der hier einen Unterschied sieht. Die Aussage, dass ein Panel mit 8-Bit und FRC schlechter als ein "echtes" 10-Bit-Panel ist, halte ich für Blödsinn. De facto wird so schnell hin und her geschaltet, dass das Flüssigkristall durch seine Trägheit tatsächlich sozusagen auf halbem Weg stehen bleibt und effektiv wirklich die Zwischenfarbe anzeigt.

Zugegeben es gibt FRC-Implementierungen, die so langsam sind, dass man tatsächlich den Schaltvorgang als ein leichtes Wabern der Farben sehen kann. Dann ist aber die Implementierung schlecht und das Panel taugt grundsätzlich nichts. Eine gute FRC-Implementierung steht einem echten Panel mit mehr Bits nicht nach. Ja umgekehrt, da man ja das zeitliche Verhalten beim Umschalten steuern kann, ist es mit einem 8-Bit-Panel durchaus über FRC möglich, auch ein 12-Bit-Panel zu simulieren. Und das ist dann wirklich besser als ein echtes 10-Bit-Panel ohne FRC.


Artchi (Beitrag #527) schrieb:
Ausreizen kann man 10 Bit-Panels erstmal nur wenig.

Wie gesagt, diese Aussage ist schlichtweg falsch. Siehe oben.


Artchi (Beitrag #532) schrieb:
Warum Peter Jackson 48 fps gewählt hat, wird sein Geheimnis bleiben. Wahrscheinlich zu viel Speicherplatz bei 60 Hz in der Produktion, bei 48 Hz exakt doppelt soviel.

Nein, das ist kein Geheimnis, sondern ganz banal die Grenze der Kinotechnik. Die Kinotechnik gibt nicht mehr her. Digitale Projektoren sind in Kinos auf maximal 96Hz ausgelegt. Da Kinos bei 3D häufig die Bilder für die beiden Augen nacheinander projizieren, bleibt pro Auge nur noch 48 Hz übrig. Und tataaa, genau das ist die Frequenz, die Peter Jackson nutzt.


James Cameron hatte nämlich 60 fps vorgeschlagen und wollte das auch für seinen kommenden Avatar 2 Film so umsetzen, PJ hat aber JC ignoriert. Jetzt weiß ich leider nicht, ob JC weiter auf seine 60 fps gesetzt hat... Ich kann mir vorstellen, das er Avatar 2 trotzdem in 60 Hz produziert. Und mit GlückAvatar 2 auf UHD-BD dann in 60 Hz rausbringt.

Eben nicht. Weil auch James Cameron lernen musste, dass das mit der aktuellen Kinotechnik nicht geht. Darum wird meines Wissens Avatar 2 genauso mit 48Hz gedreht und in den Kinos laufen wie der Hobbit.

Gruß,

Hagge
chrjjs
Inventar
#535 erstellt: 29. Feb 2016, 23:24
Vielleicht ist meine frage untergegangen. Kann man die aktuellen sony tv's eigentlich richtig ausschalten oder nur in standby setzten ? Mein jetzigen tv kann ich nur in standby setzten das ist echt ätzend
extremecarver
Stammgast
#536 erstellt: 29. Feb 2016, 23:34
Nur Standby... (außer man nimmt den Strom weg). Ohne Root wird das nichts - man kann allerdings inzwischen auch per Menu neustarten (bzw halt per 7-8sek Powerknopf drücken). Neustart dauert dann halt etwas länger.
chrjjs
Inventar
#537 erstellt: 29. Feb 2016, 23:42
Schadet das dem tv wenn man immer den stro wegnimmt und wieder anmacht ? Bei meinem jetztigen sagte mir ein techniker wäre es auf dauer nicht gut
Lilienfreak
Ist häufiger hier
#538 erstellt: 29. Feb 2016, 23:43
Was spricht denn gegen den Standby-Modus?
chrjjs
Inventar
#539 erstellt: 29. Feb 2016, 23:51
Dagegen spricht für mich, das der tv ja nicht komplett runterr fährt, sondern er ja immer noch arbeitet und ob das auf dauer so gut ist, bezweifle ich
Lilienfreak
Ist häufiger hier
#540 erstellt: 29. Feb 2016, 23:53
Mit Sicherheit besser als ihn ständig vom Stromnetz zu nehmen
chrjjs
Inventar
#541 erstellt: 01. Mrz 2016, 00:09
Das stimmt wohl
hagge
Inventar
#542 erstellt: 01. Mrz 2016, 00:20

chrjjs (Beitrag #535) schrieb:
Vielleicht ist meine frage untergegangen. Kann man die aktuellen sony tv's eigentlich richtig ausschalten oder nur in standby setzten ? Mein jetzigen tv kann ich nur in standby setzten das ist echt ätzend

Warum ist das ätzend? Bei 0,2W im Standby stört der Stromverbrauch wirklich nicht mehr nennenswert. Außerdem gehen viele Features eines solchen Systems nicht mehr, wenn der Strom weg ist. Ein Smartphone schaltet man ja auch nie aus, sondern nur in Standby.

Gruß,

Hagge
Ralf65
Inventar
#543 erstellt: 01. Mrz 2016, 06:58

hagge (Beitrag #542) schrieb:

chrjjs (Beitrag #535) schrieb:
Vielleicht ist meine frage untergegangen. Kann man die aktuellen sony tv's eigentlich richtig ausschalten oder nur in standby setzten ? Mein jetzigen tv kann ich nur in standby setzten das ist echt ätzend

Warum ist das ätzend? Bei 0,2W im Standby stört der Stromverbrauch wirklich nicht mehr nennenswert.
Hagge


vollkommen richtig, aber rein vom möglichen Energie Einsparpotenzial ist der seit Jahren fehelnde AUS-Schalter ein Desater, würde man die Stand-by Verbräuche von allen in Betrieb befindlichen Geräten (nur mal aus Deutschland) einmal addieren, so würde das sicher der Leitsung eines AKWs entsprechen.

Mir persönlich wäre ein vernüftiges Netzteil und AUS-Schalter am Gerät lieber.....
Da einige Geräte aber Nachts ihren Dienst im verborgenen verrichten, sie z.B. den EPG nachladen, oder nach neuer FW suchen, sollte man sie auch nicht durch eine Netzschalterleiste vom Netz trennen.


[Beitrag von Ralf65 am 01. Mrz 2016, 07:02 bearbeitet]
hagge
Inventar
#544 erstellt: 01. Mrz 2016, 11:00

Ralf65 (Beitrag #543) schrieb:
vollkommen richtig, aber rein vom möglichen Energie Einsparpotenzial ist der seit Jahren fehelnde AUS-Schalter ein Desater, würde man die Stand-by Verbräuche von allen in Betrieb befindlichen Geräten (nur mal aus Deutschland) einmal addieren, so würde das sicher der Leitsung eines AKWs entsprechen. ;)

Was bringt Dich zu der Annahme, dass mit einem Ausschalter der Stromverbrauch bei Null wäre? Das ist nämlich leider auch eine falsche Annahme.

Grundsätzlich verstehe ich Dein Argument und denke eigentlich so ähnlich. Aber das ist eben nicht ganz so einfach, dann müssten diese Geräte grundsätzlich anders aufgebaut sein und viele Features, die man heute nutzt, wie die automatische Aufnahme von Sendungen auf Festplatte oder wie von Dir auch schon genannt das Nachladen des EPGs oder von Updates in der Nacht gingen dann nicht mehr. Wenn man hier jetzt noch weiter macht, dann hat das also dann doch schon recht massiv Auswirkungen auf unser Leben. Das wäre in etwa so als wollte man verlangen, Spiele-PCs abzuschaffen, weil diese PCs extrem viel Strom verbraten und man ja schließlich auch ohne auskommen kann. Faktisch würde man damit sicher noch viel mehr Energie sparen können. Oder wenn man TVs komplett abschafft. Ich denke an irgendeinem Punkt muss man einfach mal aufhören, und den Ist-Zustand akzeptieren, zumal der mit den schon genannten 0,2W schon ganz gut ist. Früher haben die Geräte im Standby 30W und mehr rausgeballert. Da ist das doch schon ein guter Fortschritt und vielleicht täte man gut daran, jetzt erst mal an anderen Stellen nach Energie-Einsparpotenzial zu suchen.

Sich da jetzt einen Kopf zu machen, ist relativ unnötig. Rechnen wir mal: man geht durchschnittlich von etwa 4h TV-Nutzung am Tag aus. das heißt pro Tag gibt es etwa 20h Standby-Zeit. 20*0,2W*365=1,4kWh im Jahr. Also etwa 30 bis 40 Cent. Wenn man da einmal den Wäschetrockner weniger laufen lässt, hat man das schon wieder wett gemacht. Das zeigt, wie man an anderer Stelle viel leichter viel mehr Energie sparen kann.

Wenn man z.B. den gesamten Energieverbrauch für Kaffee rechnet (also von der Anpflanzung über das Ernten bis zum Rösten, Ausliefern und dem Kochen am Ende), dann hat man wahrscheinlich schon mehr Energie gespart, wenn man auf eine Tasse Kaffee verzichtet.

Gruß,

Hagge


[Beitrag von hagge am 01. Mrz 2016, 11:04 bearbeitet]
extremecarver
Stammgast
#545 erstellt: 01. Mrz 2016, 12:23
Bei einem mechanischen Ein/AUS Schalter wäre das schon so... Gibts halt kaum mehr Heutzutage.


Bei mir stellt sich der Fernseher jetzt mit neuester Firmware nicht mehr einfach so an (alle EPG,Firmware usw Funktionen ausgeschaltet) - aber er schaltet meinen Receiver ein/zweimal täglich einfach so an. Der Fenerseher verbraucht dann für 30min wieder 25Watt/h. Sony hat hier 2015 echt Scheiße gebaut.
Und Android war halt auch einfach noch nicht bereit für UHD Fenseher. Etwa geht UHD Interface erst seit Android 6. Jetzt fragt sich natürlich - werden die 2016er Sony bzw die 2015er - nach dem Update ein UHD Interface bekommmen - oder weite die FHD Krücke wo nur Bilder/Videos UHD sind (und damit bei jeder App die Frage ob die das richtig hinbekommen haben - Kodi wird daher erst mit Android 6 UHD unterstützen - und dann halt evtl auch nur wenn der Fernseher an sich als UHD Gerät läuft).

Es gab 2015 zwei Hauptfehler - 1. Android 5 nicht tauglich, 2. CPU/GPU viel zu schwach. 2016 wird Sony ja scheinbar wieder erstmal die Fernseher nur mit Android L rausbringen, das Update auf M soll dann später kommen. Das ist einfach schwach. Fragt sich jetzt halt nur ob CPU/GPU endlich besser sind (derzeit etwa auf Nexus 4 Niveau - sprich etwa auf Niveau von Top Smartphones Ende 2012! - bzw Mittelklasse Phones Ende 2013 oder Einsteiger Smartphones Mitte 2014).
Onbekend
Inventar
#546 erstellt: 01. Mrz 2016, 12:48

extremecarver (Beitrag #545) schrieb:
Es gab 2015 zwei Hauptfehler - 1. Android 5 nicht tauglich, 2. CPU/GPU viel zu schwach. 2016 wird Sony ja scheinbar wieder erstmal die Fernseher nur mit Android L rausbringen, das Update auf M soll dann später kommen. Das ist einfach schwach. Fragt sich jetzt halt nur ob CPU/GPU endlich besser sind (derzeit etwa auf Nexus 4 Niveau - sprich etwa auf Niveau von Top Smartphones Ende 2012! - bzw Mittelklasse Phones Ende 2013 oder Einsteiger Smartphones Mitte 2014).

Ich hoffe SEHR, dass das UI von AndroidTV 6 auf UHD-Niveau gehievt wird. Das FHD-UI war echt peinlich. Sieht/sah auch noch recht unscharf aus, sprich: noch nicht mal gekonnt hochskaliert.
Mir ist auch schleierhaft, warum ein so schwach brüstiger Prozessor eingebaut wurde.
Sie versprechen eine schnellere User Experience, aber ich glaube das erst, wenn ich das selber erlebt habe.
extremecarver
Stammgast
#547 erstellt: 01. Mrz 2016, 13:27
Ja das mit dem Prozessor/GPU ist echt schwach. Das waren vielleicht 20 stat 10 USD an Kosten zu Beginn 2015 - wenn sie statt dem Billigprozessor etwa einen völlig ausreichenden Snapdragon 800/801 genommen hätten (oder halt ein entsprechendes Modell von Mediatek - wobei Meditek halt im Ultra Low Budget Bereich dominiert).
Onbekend
Inventar
#548 erstellt: 01. Mrz 2016, 13:49
Neuer AndroidTV Prozessor für SONY TV's? MediaTek MediaTek 2

The 4K TV that was demonstrated was a prototype, but Sony confirmed that partners will be shipping the Android TV 6.0 based on the new and updated MT 5596 SoC later this year.

Allerdings kann ich gar nicht einschätzen, wie schnell ein solcher MT5596 im Vergleich zum Vorgänger wäre... hat jemand von Euch da einen besseren Überblick? Wie ist dieser Prozessor einzuschätzen?


[Beitrag von Onbekend am 01. Mrz 2016, 14:02 bearbeitet]
extremecarver
Stammgast
#549 erstellt: 01. Mrz 2016, 14:05
Die sind gar nicht einzuschätzen ohne mehr Infos (Taktrate usw) - A53 muss nicht besser sein wie A17, viele Aufgaben übernimmt ja eh der X1 Chip.

Prinzipiell - 5XXX ist low budget, ein 6595 wäre etwa klar besser - aber wohl halt auch teurer. Generell wäre mir Snapdragon (Qualcom) viel lieber als MT...
Onbekend
Inventar
#550 erstellt: 01. Mrz 2016, 14:35

extremecarver (Beitrag #549) schrieb:
Die sind gar nicht einzuschätzen ohne mehr Infos (Taktrate usw) - A53 muss nicht besser sein wie A17, viele Aufgaben übernimmt ja eh der X1 Chip.

Logisch... wir sprechen aber über die AndroidTV-Seite... da ist dieser Prozessor entscheidend.

Anscheinend ist der GraphicProzessor hier entscheidend für die Navigation im Menü:

The GPU (graphical processing unit) has also received a substantial update to support the Mali T860 GPU. A stronger GPU means vast improvements in game rendering. Plus this should have a positive effect with navigating the system and playing back video.


[Beitrag von Onbekend am 01. Mrz 2016, 14:39 bearbeitet]
potty83
Stammgast
#551 erstellt: 01. Mrz 2016, 15:08
hmm von MT5595 zu MT5596. Scheint aber wirklich kein großer Sprung zu sein.

Wie der MT5596 im Vergleich zur Konkurrenz einzuordnen ist bleibt abzuwarten.
Suche:
Gehe zu Seite: |vorherige| Erste . 7 8 9 10 11 12 13 14 15 16 . 20 Letzte |nächste|
Das könnte Dich auch interessieren:
Sony XD8505 - 2016
chrjjs am 25.02.2016  –  Letzte Antwort am 09.11.2018  –  433 Beiträge
Sony ZD9 Event Oktober 2016
schups am 11.10.2016  –  Letzte Antwort am 20.10.2016  –  16 Beiträge
Sony XD8005/XD8305 Serie 2016
Shangri-La am 23.07.2016  –  Letzte Antwort am 22.09.2022  –  229 Beiträge
Liefer Engpass im Januar 2016 bei Sony ?
Heinz,2,3 am 30.01.2016  –  Letzte Antwort am 31.01.2016  –  5 Beiträge
Sony XD8505 -2016 ->ARC -> Dolby HD
Progression am 12.02.2017  –  Letzte Antwort am 12.02.2017  –  2 Beiträge
Bildvergleich KDL46nx715(2010) und KDL43wd755(2016)
Lectoe am 04.12.2016  –  Letzte Antwort am 06.12.2016  –  9 Beiträge
CES 2018 - Die neuen Sony-TVs für 2018
hagge am 07.01.2018  –  Letzte Antwort am 15.01.2018  –  162 Beiträge
CES2017 - Die neuen Sony-TVs für 2017
hagge am 31.12.2016  –  Letzte Antwort am 04.03.2017  –  144 Beiträge
Sony jetzt auch mit Sky-Ticket App
ft1900 am 22.09.2020  –  Letzte Antwort am 30.01.2021  –  5 Beiträge
Sony Neuheiten 2011 zur CES
Matthi007 am 05.01.2011  –  Letzte Antwort am 05.01.2011  –  2 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.736 ( Heute: 2 )
  • Neuestes MitgliedUeli.Brunner@Sunrise...
  • Gesamtzahl an Themen1.551.098
  • Gesamtzahl an Beiträgen21.538.067