Gehe zu Seite: |vorherige| Erste 2 3 4 5 6 Letzte |nächste|

4K , ein kleiner Blick in die Zukunft

+A -A
Autor
Beitrag
sell1000
Ist häufiger hier
#252 erstellt: 21. Sep 2013, 16:59

Mary_1271 (Beitrag #247) schrieb:





sell1000 (Beitrag #245) schrieb:

Auf die Audio-Ebene adoptiert: Nicht der Dirigent bestimmt mehr über Lautstärke-Proportionen innerhalb der Instrumenteschar, führt praktisch Regie, sondern der Zuhörer entscheidet nach Laune, welche Instrumentengruppe er fokussiert, da alle Instrumente per Dekret gleich laut zu erscheinen haben.


Selten so einen Käse gelesen. Man kann doch nicht Musik mit Bildern vergleichen!!! Aber selbstverständlich bestimme im Endeffekt ich über die Abhörlautstärke in meinen 4 Wänden oder im Auto. Und wenn ich der Meinung bin das Musikstück "verträgt" mehr oder weniger Höhen/Bässe, dann ändere ich das selbstverständlich. Also muß man kein Drama draus machen!





Du hast mich nicht verstanden:

Es ging hier nicht um Abhörlautstärke, sondern um Dynamikproportionen der einzelnen Instrumente untereinander, und dies ist in der Analogie sehr wohl vergleichbar mit der Thematik SCHÄRFE/UNSCHÄRFE einer Bildkomposition.


Gruß

sell
burkm
Inventar
#253 erstellt: 21. Sep 2013, 18:52
@Mary 1271:
"Soße" deshalb, weil Schärfe / Unschärfe ja ein Stilmittel des Bildgestaltung ist, um Wichtiges von Unwichtigem zu separieren, Vorne und Hinten voneinander zu trennen.
Wenn alles "zusammengemanscht" wird a la Kompaktkamera mit kleinstem Sensor, kleiner Brennweite und geringer Blendenöffnung, dann entsteht einfach nur ein undefinierbarer "Brei" von Hinten und Vorne wo man nicht mehr zwischen Wichtigem und Unwichtigem unterscheiden kann.
Nicht umsonst sind in der Fotografie / Videografie deshalb Objektive mit hoher Lichtstärke (= großer Blendenöffnung) und gutem Bokeh heiß begehrt (und teuer), um eben Vorder- und Hintergrund voneinander Trennen zu können und beispielsweise das "Objekt der Begierde" dadurch freistellen zu können.
AusdemOff
Inventar
#254 erstellt: 21. Sep 2013, 20:43

In diesem Beitrag wird deutlich,warum,neben der verwendeten Projektionstechnik,die Quallität in digitalen Kinos auflösungsunabhängig,trotz "nur" 2K,so gut ist.
Es findet nämlich keinerlei Kompression statt.
Darüber spricht komischerweise niemand.


Im Jahre 2005 hat die Digital Cinema Initiative DCI ein Digital Cinema Distribution Master definiert.
Dieser schreibt zur Verteilung von Digital Content das Kompressionsverfahren M-JPEG 2000
vor.


Bei einem Komprimierungsverfahren werden u.a. die Dinge herausgefiltert, die der Mensch sowieso nicht hört oder sieht. Desweiteren lassen sich bei bestimmten Komprimierungen alle möglichen Dateien verlustfrei wieder herstellen.


Der Kausalzusammenhang stimmt hier nicht. Es gibt keine Videokompressionsverfahren die
auch nur ansatzweise reversibel wären.


Nehme doch nur mal das ZIP oder RAR- Verfahren. Dateien lassen sich superklein "zusammenstauchen" und beim Entpacken ist die ursprüngliche Größe erreicht.


Die Größe einer Datei hat nur in erster Näherung etwas mit ihrem Informationsgehalt zu tun.
Die genannten Verfahren nutzen monotone Bitfolgen aus, die mittels intelligenterer Kodierung
und Codewörtern Bits einsparen. Ähnliche Verfahren werden auch in Videocodecs zur
Entropiekodierung eingesetzt. Hier wären für H.264 und H.265 CABAC und CAVLC zu nennen.
Diese Verfahren sind in der Tat nahezu reversibel. Tragen aber nur zu maximal 30% der Bitrateneinsparung bei.


Bei Film und Musik muß halt der Player die komprimierten mpeg-Dateien entsprechend auswerten. Und das geschieht bis zu einem bestimmten Punkt quasi verlustfrei.


Eine Bewertung wäre eine bildqualitätsbestimmende Komponente. Im Beispiel der am häufigsten
verwendeten Codecs, H.264 und MPEG-2, ist lediglich der Decoder definiert. Dieser wird durch den
HRD (Hypothetical Reference Decoder) abgebildet. Dies soll bedeuten, das jeder H.264 oder MPEG-2
Stream durch diesen fehlerfrei dekodiert werden muß. Mit anderen Worten: kein Videocodec arbeitet
verlustfrei und MPEG-Datenstreams werden auch nicht während des Dekodierens bewertet.

Unterschiede in der Bildqualität werden in der MPEG-Welt ausschließlich durch den Encoder bestimmt.


Und so ist das auch z.B. bei einer Blu-ray. Die maximale Datenrate beträgt 40Mbit. Und das ist in absolut jedem Fall für 2K mehr als nur ausreichend. Du wirst da beim besten Willen keinen Unterschied zum 1,2 Terabyte Pendant erkennen können. Da müßtest Du schon mit dem Rasterelektronenmikroskop rangehen.


Dem ist leider ganz und gar nicht so. Zwischen dem Originalformat und dem auf der Blu-ray
befindet sich, abgesehen von der Datenkompression MPEG, bereits ein Datenreduktionsverfahren.

Auf der Produktionsseite wird im RGB 4:4:4-Verfahren mit 10, 12 oder 14bit gearbeitet.
Die Blu-ray bringt es hier nur auf den Komponentenlevel mit YPbPr 4:2:0 mit 8bit.
Diese Unterschiede sind ansatzlos für jeden Menschen sofort erkennbar (sichtbar!).
Mary_1271
Inventar
#255 erstellt: 21. Sep 2013, 21:50

sell1000 (Beitrag #252) schrieb:

Du hast mich nicht verstanden:

Es ging hier nicht um Abhörlautstärke, sondern um Dynamikproportionen der einzelnen Instrumente untereinander, und dies ist in der Analogie sehr wohl vergleichbar mit der Thematik SCHÄRFE/UNSCHÄRFE einer Bildkomposition.



Hallo

Also für mich ist Musik mit Bild nicht vergleichbar, aber ich weiß was Du meinst.


Nudgiator (Beitrag #251) schrieb:

Diese Verfahren spielen aber im Filmbereich keinerlei Rolle und sind daher irrelevant !


Das Prinzip bei einer MPEG-Konvertierung kannst Du nicht mit ZIP und RAR vergleichen.


Auch das ist mir klar. Praktisch wollte ich für andy@71 nur andeuten, daß Kompression nicht zwingend zu einer erheblichen Qualitätsverminderung führen muß! Selbst bei der Blu-ray ist noch reichlich "Sicherheit" vorhanden. Praktisch würden bei 1080p mit h264 auch maximale Bitraten von 20.......25Mbit/s reichen, ohne daß man nun extreme Unterschiede zum Terabyte-Original sieht. Zur max. 40Mbit/s vs. 25Mbit/s Datei wird man mit Sicherheit kaum einen Unterschied ausmachen können.


Nudgiator (Beitrag #251) schrieb:

Auf eine BD ist dann Platz für etwa 6 Minuten unkomprimiertem Film ! Daher wird es bei 4k-Content auch einen neuen Codec geben, z.B. H.265


Richtig. Man muß sich schon wundern, daß es da seit Mpeg4_Teil 10 immernoch etwas "Besseres" geben wird.


burkm (Beitrag #253) schrieb:
@Mary 1271:
"Soße" deshalb, weil Schärfe / Unschärfe ja ein Stilmittel des Bildgestaltung ist, um Wichtiges von Unwichtigem zu separieren, Vorne und Hinten voneinander zu trennen.
Wenn alles "zusammengemanscht" wird a la Kompaktkamera mit kleinstem Sensor, kleiner Brennweite und geringer Blendenöffnung, dann entsteht einfach nur ein undefinierbarer "Brei" von Hinten und Vorne wo man nicht mehr zwischen Wichtigem und Unwichtigem unterscheiden kann.



Nun........es muß mich bei einem Film niemand mit der Nase draufstoßen, was nun wichtig und was unwichtig ist! Das erkenne ich geradenoch selbst!!!images/smilies/insane.gif

Aber......ich weiß natürlich was Du meinst.
Und damit man mich nicht für völlig "einfältig" hält, hier mal noch zwei Beispiele.

02 Haarspange

Die Haarspange spielt hier eine gewisse Rolle. Es ist somit (selbst für mich) völlig in Ordnung, daß nur sie scharf dargestellt wird und der Rest in Unschärfe versinkt.

03 unscharfer Hintergrund

Auch hier ist es völlig in Ordnung, daß der Herr, der hier mit dem Rücken zu uns steht, unscharf dargestellt wird. Es ist aber nicht einzusehen, daß sein Gegenüber scharf,- und der restliche Hintergrund in Unschärfe versinken muß!

Auf einem künftigen 150" 4K oder gar 8K Display will ich gefälligst das Muster auf der Blumenvase (hier in Hintergrund-Mitte) sehen können..............und nicht nur wenn der Kameramann sie gnädigerweise mal ranzoomt!

Ich hoffe, nun wird man mich vielleicht etwas besser verstehen können.
Wenn nicht, ist mir's auch egal.


burkm (Beitrag #253) schrieb:

Nicht umsonst sind in der Fotografie / Videografie deshalb Objektive mit hoher Lichtstärke (= großer Blendenöffnung) und gutem Bokeh heiß begehrt (und teuer), um eben Vorder- und Hintergrund voneinander Trennen zu können und beispielsweise das "Objekt der Begierde" dadurch freistellen zu können.


Bei einem entsprechendem Foto sehe ich es ähnlich wie bei meinen beiden Bildern (siehe oben). Generell "darf" aber "bei mir" der Hintergrund auch scharf bleiben. Das Wesentliche kann ich dann doch selbst herausfiltern. Dafür wurden nämlich dem Menschen entsprechende Sinne mitgegeben!

Liebe Grüße
Mary


[Beitrag von Mary_1271 am 21. Sep 2013, 21:55 bearbeitet]
seifenchef
Inventar
#256 erstellt: 22. Sep 2013, 11:37
Hi Mary,

Obwohl ich selbst da nicht so empfindlich reagiere wie Du, finde ich Deine Herangehens/Betrachtungsweise trotzdem interessant. Und selbstverständlich soll man nicht im Gleichschritt hinterhertrotten.


Mary_1271 (Beitrag #255) schrieb:

Die Haarspange spielt hier eine gewisse Rolle. Es ist somit (selbst für mich) völlig in Ordnung, daß nur sie scharf dargestellt wird und der Rest in Unschärfe versinkt.
&

Auch hier ist es völlig in Ordnung, daß der Herr, der hier mit dem Rücken zu uns steht, unscharf dargestellt wird. Es ist aber nicht einzusehen, daß sein Gegenüber scharf,- und der restliche Hintergrund in Unschärfe versinken muß!


Das von Dir erkannte Problem besteht nun darin, dass der XY-Kameramann, vielleicht gerade wenn er noch unsicher in der Gestaltung ist, im Zweifelsfall also immer eine stark eingegrenzte Schärfentiefe einsetzt.

Sozusagen eine 0815-Methode im Glauben dann immer gute/die besseren Bilder zu haben!

Du solltest das mal ehrlich auch in Film-Kunst-Foren/Schulen ansprechen.

Ansonsten, also wenn die Kameraleute ihre Einstellung dazu nicht bewusst ändern, wirst Du wohl das blaue Wunder mit 4k erleben ( 4k-blu-soft ), denn ich denke aufgrund der wesentlich höheren Auflösung, wird sich eine um das scharfgestellte Motiv/Ebene herum ergebende selektive Schärfe weiter verstärken! Also sozusagen automatisch, wenn man nicht direkt dagegen arbeitet!

Hinweis zu Deinem Bild2:
Dies ist m.E. nach ein Beispiel wo sich der unscharfe Hintergrund garantiert automatisch ergeben hat, da in diesem Schummerlicht das Objektiv der Kamera garantiert relativ weit geöffnet werden musste!
Diese/ähnliche Effekte wirst Du bei 4k noch verstärkt haben, da verwette ich meinen Allerwertesten

Also genauso 'automatisch' wie eben im SD alles gleich halbscharf war!

Das meine ich ernst, also wäre dann 4k eher kontraproduktiv für Dich? und andere?

das Paradoxon wäre dann in etwa so beschrieben:
SD : der ganze Bildschirm ist gleichmässig halbscharf
4,0k: ein Teil des Bildschirmes ist sauscharf, der Rest total unscharf



Mary_1271 (Beitrag #255) schrieb:

Auf einem künftigen 150" 4K oder gar 8K Display will ich gefälligst das Muster auf der Blumenvase (hier in Hintergrund-Mitte) sehen können..............und nicht nur wenn der Kameramann sie gnädigerweise mal ranzoomt!


Würde das bedeuten das bei den Kameraleuten ein genereller Paradigmenwechsel stattfinden muß?

Man muss bewusster arbeiten, man muss schnallen ob die Bildgestaltung mit stark selektiver Schärfeebene inhaltlich vorteilhaft; ästhetisch vorteilhaft, oder als ständige 'Normalanwendung'
(Mary würde es vmtl.Unsitte nennen)
auch irgendwann nervt? Weniger oft eingesetzt ist mehr Effekt?



Mary_1271 (Beitrag #255) schrieb:
Ich hoffe, nun wird man mich vielleicht etwas besser verstehen können.
Wenn nicht, ist mir's auch egal.


Nö, nicht egal. War doch erkenntnisfördernd.

gruß seifenchef


[Beitrag von seifenchef am 22. Sep 2013, 11:51 bearbeitet]
Klausi4
Inventar
#257 erstellt: 22. Sep 2013, 12:11

seifenchef (Beitrag #256) schrieb:

Dies ist m.E. nach ein Beispiel wo sich der unscharfe Hintergrund garantiert automatisch ergeben hat, da in diesem Schummerlicht das Objektiv der Kamera garantiert relativ weit geöffnet werden musste!
Diese/ähnliche Effekte wirst Du bei 4k noch verstärkt haben, da verwette ich meinen Allerwertesten

Das meine ich ernst, also wäre dann 4k eher kontraproduktiv für Dich? und andere?

Würde das bedeuten, dass bei den Kameraleuten ein genereller Paradigmenwechsel stattfinden muß?


Zumindest bei 3D-Filmen erwarte ich, dass die alte Gewohnheit, mit bewusster Schärfe-Lenkung dem Zuschauer eine nicht vorhandene Bildtiefe vorzugaukeln, aufgegeben wird! Immer öfter lese ich auch von anderen 3D-Freunden, dass die ständige Hintergrund-Unschärfe in vielen "Blockbuster"-Filmen die echte Räumlichkeit des 3D-Bildes behindert. Deshalb bin ich gegen 4K-3D-Produktionen, die noch mehr Licht bzw. noch größere Blendenöffnungen brauchen würden. Viel wichtiger ist m.E. HFR mit 50 oder 60 Bildern pro Sekunde, wie es von Full-HD-Consumer-Kameras schon angeboten wird...
AusdemOff
Inventar
#258 erstellt: 22. Sep 2013, 18:47
Vermutlich wird 4k auch wieder für 3D missbraucht - für ein brillenloses Sehvergnügen
in Full-HD im Stile des "Kaisers neue Kleider".

High Frame Rate (HFR) ist tatsächlicherweise einer der Hauptentwicklungsstufen
des neuen Fernsehens.

In der Zwischenzeit haben sich die Fernsehschaffenden auf eine zweistufige
UHDTV Einführung geeinigt:
Phase 1: 3840x2160p/50/60, 8/10bit, ITU-R.BT709-5 (Farbraum des heutigen HD)
Phase 2: 3840x2160p/100(?)/120, 10bit, ITU-R.BT2020 (deutlich erweiterter Farbraum)

Phase 2 wird für ca. 2016-2020 erwartet.

Gesendet wird mittels H.265/HEVC.

Und - endlich! - Interlace ist tot!
Mary_1271
Inventar
#259 erstellt: 22. Sep 2013, 18:53

seifenchef (Beitrag #256) schrieb:

Das von Dir erkannte Problem besteht nun darin, dass der XY-Kameramann, vielleicht gerade wenn er noch unsicher in der Gestaltung ist, im Zweifelsfall also immer eine stark eingegrenzte Schärfentiefe einsetzt.

Sozusagen eine 0815-Methode im Glauben dann immer gute/die besseren Bilder zu haben!

Du solltest das mal ehrlich auch in Film-Kunst-Foren/Schulen ansprechen.


Hallo Seifenchef

Na.....das verkneife ich mir besser.


seifenchef (Beitrag #256) schrieb:

Hinweis zu Deinem Bild2:
Dies ist m.E. nach ein Beispiel wo sich der unscharfe Hintergrund garantiert automatisch ergeben hat, da in diesem Schummerlicht das Objektiv der Kamera garantiert relativ weit geöffnet werden musste!


Naja.......meine preiswerte Full-HD Kamera bekommt das aber hin! Vielleicht sollte man einfachmal die Kamera wechseln.


seifenchef (Beitrag #256) schrieb:

Diese/ähnliche Effekte wirst Du bei 4k noch verstärkt haben, da verwette ich meinen Allerwertesten

Also genauso 'automatisch' wie eben im SD alles gleich halbscharf war!

Das meine ich ernst, also wäre dann 4k eher kontraproduktiv für Dich? und andere?


Naja.....was will man machen!? Auf einen 4K TV verzichten wir deswegen trotzdem nicht. Und bei einigen wenigen Filmproduktionen hat ja offensichtlich schon ein Umdenken stattgefunden.


Klausi4 (Beitrag #257) schrieb:

Zumindest bei 3D-Filmen erwarte ich, dass die alte Gewohnheit, mit bewusster Schärfe-Lenkung dem Zuschauer eine nicht vorhandene Bildtiefe vorzugaukeln, aufgegeben wird! Immer öfter lese ich auch von anderen 3D-Freunden, dass die ständige Hintergrund-Unschärfe in vielen "Blockbuster"-Filmen die echte Räumlichkeit des 3D-Bildes behindert.


Also ich war für das 3D mit Brille auch noch nie zu begeistern. Dieselben Erfahrungen mußte ich auch machen...........obwohl der damalige Gastgeber von seinem 3D-TV geschwärmt hat. Avatar in 3D war es. Da bleibe ich lieber bei der 2D-Variante.

Liebe Grüße
Mary
Joe-Han
Inventar
#260 erstellt: 22. Sep 2013, 19:23

seifenchef (Beitrag #208) schrieb:
Mir persönlich gefällt eine Schärfe, die wesentlich höher daherkommt als das wirkliche Leben nicht.

In diesem Zusammenhang sollte man auch bedenken, dass schon bei vielen "guten" Full-HD Aufnahmen die Filmmaske (Schminke, silikongeklebte und aufgemalte Verletzungen, Kontaktlinsen in historischen Filmen etc.) sichtbar wird und IMHO ein Stück weit die Illusion des Filmes raubt. In scharfem 4K wird das nicht besser.
rastl
Stammgast
#261 erstellt: 24. Sep 2013, 12:32

Mary_1271 (Beitrag #179) schrieb:
Sinn macht 4k (für uns) ohnehin erst, wenn auch tatsächlich 2160p Material vorhanden sein wird.

Sollte nicht auch schon die Skalierung von Videosignalen <1080i/p auf das feineres Raster eines UHD TV's zu deutlichen/sichtbaren Verbesserungen führen ? Dies wäre ja insbesondere auch in D für das problematische 720p Format und alle HD+ Gegner, also auf unabsehbare Zeit für 576i weiterhin interessant.
seifenchef
Inventar
#262 erstellt: 24. Sep 2013, 14:53
Zauberei


rastl (Beitrag #261) schrieb:
Sollte nicht auch schon die Skalierung von Videosignalen <1080i/p auf das feineres Raster eines UHD TV's zu deutlichen/sichtbaren Verbesserungen führen ? Dies wäre ja insbesondere auch in D für das problematische 720p Format und alle HD+ Gegner, also auf unabsehbare Zeit für 576i weiterhin interessant.


Wie kommst Du nur darauf?

Informationszauberei? Ich glaube nicht daran.

gruß seifenchef
rastl
Stammgast
#263 erstellt: 25. Sep 2013, 17:23

seifenchef (Beitrag #262) schrieb:
Zauberei

Wie kommst Du nur darauf?

MINT
Mary_1271
Inventar
#264 erstellt: 26. Sep 2013, 01:29

rastl (Beitrag #261) schrieb:

Sollte nicht auch schon die Skalierung von Videosignalen <1080i/p auf das feineres Raster eines UHD TV's zu deutlichen/sichtbaren Verbesserungen führen ? Dies wäre ja insbesondere auch in D für das problematische 720p Format und alle HD+ Gegner, also auf unabsehbare Zeit für 576i weiterhin interessant.


Hallo

Ein hochskaliertes SD-Bild wird ohne künstliches Hinzufügen von Details auch auf einem 4K-TV nicht besser aussehen als auf einen 2K!!! Man kann einiges "aufhübchen"......aber aus Schei*e wird trotzdem kein Gold.


rastl (Beitrag #263) schrieb:

MINT


Was soll denn das für ein Schmarrn sein?

Wenn das SD-Bild (und 720p, 1080i/p) auf einem 4K-TV besser aussieht, dann wird das sicherlich keine schwarze Magie sein, sondern das Ergebnis intelligentem Hinzufügen von Details, die eigentlich garnicht da sind. Diese "Zauberei" soll meines Wissens Sony beherrschen und obendrein auch noch gut gelungen sein (Aussagen von Leuten, die die Sonys begutauchtet haben).
Selbst kann ich es (noch) nicht beurteilen.

Liebe Grüße
Mary
seifenchef
Inventar
#265 erstellt: 26. Sep 2013, 08:28
Hi Mary & rastl,



Mary_1271 (Beitrag #264) schrieb:
sondern das Ergebnis intelligentem Hinzufügen von Details, die eigentlich garnicht da sind. Diese "Zauberei" soll meines Wissens Sony beherrschen und obendrein auch noch gut gelungen sein (Aussagen von Leuten, die die Sonys begutauchtet haben).
Selbst kann ich es (noch) nicht beurteilen.


Naja, warten wirs ab.
Viel ist m.E. auf jeden Fall nicht herauszuholen. Aber wer den Haben-Effekt vorzieht (phil. betrachtet: weil er sich über das Haben statt über das Sein selbst definiert), dem ist das Reale eh schnurz.

Ich habs auch noch nicht gesehen, und im Blödmarkt hat man keinen Vergleich, denn dann müsste mal überall das gleiche gute Material laufen, das bekommen sie aber nicht hin ...

gruß seifenchef


[Beitrag von seifenchef am 26. Sep 2013, 08:29 bearbeitet]
AusdemOff
Inventar
#266 erstellt: 26. Sep 2013, 11:32

MINT - Was soll denn das für ein Schmarrn sein?


Seit wann ist eine solide technisch/wissenschaftliche Ausbildung ein Schmarr'n?


Wenn das SD-Bild (und 720p, 1080i/p) auf einem 4K-TV besser aussieht, dann wird das sicherlich keine schwarze Magie sein, sondern das Ergebnis intelligentem Hinzufügen von Details, die eigentlich garnicht da sind.


Eher der umgekehrte Fall führt hier zum besseren Ergebnis. Das Weglassen von Bildverschlimmbesserern
und unnötigen Bildkorrekturen.
Ein Hinzufügen von Details die nicht im Original vorhanden waren grenzt in der Tat an Schwarze Magie.
Wenn damit aber ein "simples" hochskalieren gemeint sein sollte, ist dieses keine Rede mehr wert.
Das ist nur eine Frage des Aufwandes und des Gerätepreises. (Ganz so simpel ist es im übrigen
dann auch wieder nicht.)


Diese "Zauberei" soll meines Wissens Sony beherrschen und obendrein auch noch gut gelungen sein (Aussagen von Leuten, die die Sonys begutauchtet haben).
Selbst kann ich es (noch) nicht beurteilen.


Wie gesagt, andere können das auch. Nicht umsonst gestaltet sich der Marketshare gemäß GfK
in der EU5 wie folgt:
Samsung 34%, LG 18%, Panasonic 14%, Philips 8%, Sony 6%, Rest: andere. Und das nicht seit gestern.
Mary_1271
Inventar
#267 erstellt: 27. Sep 2013, 00:23

AusdemOff (Beitrag #266) schrieb:

MINT - Was soll denn das für ein Schmarrn sein?


Seit wann ist eine solide technisch/wissenschaftliche Ausbildung ein Schmarr'n?



Hallo

Nun......im Zusammenhang mit einem besseren hochskalierten SD-Bild auf einem 4K-TV schon!


AusdemOff (Beitrag #266) schrieb:

Eher der umgekehrte Fall führt hier zum besseren Ergebnis. Das Weglassen von Bildverschlimmbesserern und unnötigen Bildkorrekturen.
Ein Hinzufügen von Details die nicht im Original vorhanden waren grenzt in der Tat an Schwarze Magie.


Es geht wohl dabei nicht um schlichte Bildverbesserer. Vielmehr sollen einige 4K-TVs u.a. 2K-Material so intelligent interpolieren können, daß tatsächlich ein sichtbar besseres/detailreicheres Bild sichtbar wird. Das sind u.a. Aussagen von Leuten, die kürzlich die IFA besuchten.


AusdemOff (Beitrag #266) schrieb:

Wie gesagt, andere können das auch. Nicht umsonst gestaltet sich der Marketshare gemäß GfK
in der EU5 wie folgt:
Samsung 34%, LG 18%, Panasonic 14%, Philips 8%, Sony 6%, Rest: andere.


So hat Sony ja geradenoch die 5%-Hürde übersprungen. Schade eigentlich..........da Sony eigentlich immer "gute Ware" geliefert hat.

Liebe Grüße
Mary
Klausi4
Inventar
#268 erstellt: 27. Sep 2013, 17:22

Mary_1271 (Beitrag #267) schrieb:

So hat Sony ja geradenoch die 5%-Hürde übersprungen. Schade eigentlich..........da Sony eigentlich immer "gute Ware" geliefert hat.


Diese Rangfolge gilt aber nur für "Unterhaltungselektronik" - bei Profi-Ausrüstung im TV-Bereich haben sie "die Mehrheit"...
Ralf65
Inventar
#269 erstellt: 27. Sep 2013, 17:45
[quote="Mary_1271 (Beitrag #264)"][quote="rastl (Beitrag #261)"]
Sollte nicht auch schon die Skalierung von Videosignalen <1080i/p auf das feineres Raster eines UHD TV's zu deutlichen/sichtbaren Verbesserungen führen ? Dies wäre ja insbesondere auch in D für das problematische 720p Format und alle HD+ Gegner, also auf unabsehbare Zeit für 576i weiterhin interessant.[/quote]

Hallo

Ein hochskaliertes SD-Bild wird ohne künstliches Hinzufügen von Details auch auf einem 4K-TV nicht besser aussehen als auf einen 2K!!! Man kann einiges "aufhübchen"......aber aus Schei*e wird trotzdem kein Gold.

[quote="rastl (Beitrag #263)"]


Liebe Grüße
Mary[/quote]

ein Blu-ray Signal sieht auf einem 4K TV wirklich besser aus (verglichen mit einem Full HD bei identischer Diagonale von 65"), verglichen mit größeren Full HD Diagonalen, nimmt der Eindruck sogar noch zu, da die Pixelrasterung bei den Full HD TV's mit größerer Diagonale auch grober wird.

ein 1080i HD Sat Signal macht dort ebenfalls einen besseren Eindruck, ebenso ein 720p Sat Signal, ein SD Programm jedoch wirkt im Vergleich allerdings über einen 4K TV weicher als über einen Full HD Display
Nudgiator
Inventar
#270 erstellt: 27. Sep 2013, 19:32
Was sieht besser aus: ein 720p-Bild auf einem 720p-TV oder ein hochskaliertes 720p-Bild auf einem 1080p-TV ? IMHO ganz klar ein 720p-Bild auf einem 720p-TV. Warum ? Man muß keine Pixel interpolieren !
andi@71
Hat sich gelöscht
#271 erstellt: 27. Sep 2013, 20:31

Nudgiator (Beitrag #270) schrieb:
Was sieht besser aus: ein 720p-Bild auf einem 720p-TV oder ein hochskaliertes 720p-Bild auf einem 1080p-TV ? IMHO ganz klar ein 720p-Bild auf einem 720p-TV. Warum ? Man muß keine Pixel interpolieren !



Genau richtig!

Deswegen sind die Auflösungen der aktuell verkauften TVs eigentlich zu hoch.
Oder sagen wir mal für Freunde von SD Material sollten die Hersteller auch noch ein paar hochwertige HD Ready Modelle im Programm haben.
Aber die können sie vermutlich nicht mehr verkaufen,seit das Marketing die Konsumenten wie Laborratten ausschließlich auf möglichst hohe Auflösungen konditioniert hat.
seifenchef
Inventar
#272 erstellt: 28. Sep 2013, 15:27
Schärfegrade Chilli+ oder gleich Habanero?

Hi.


Nudgiator (Beitrag #270) schrieb:
Was sieht besser aus: ein 720p-Bild auf einem 720p-TV oder ein hochskaliertes 720p-Bild auf einem 1080p-TV ? IMHO ganz klar ein 720p-Bild auf einem 720p-TV. Warum ? Man muß keine Pixel interpolieren !


Interessante Frage, hab ich noch nie testen können.
Fakt ist mein Bild auf dem 60" LG ist gut bis sehr gut, auch wenn ARD/ZDF läuft. (ausser wenn sie aus einem SD-Studio senden natürlich, bspw. News)
Um Deine Frage zu beantworten bräuchte ich nun einen 60"-HD-Ready daneben, den ich mir aber deshalb nicht extra kaufen werde.

Mal was anderes, ich habe vorgestern aus dem Grund einige Dinge von meinem BST 721 herunterschneiden und brennen zu wollen (Musicclips) ohne meinen LG einzubrennen, einen Computer-Monitor ins Wohnzimmer neben den 60" LG gestellt. Es handelt sich um einen 27" IPS-LED von LG.

Nun konnte ich so auch einige interessante Tests machen was den subjektiven Schärfeeindruck der beiden Bildgrößen anbelangt.

60" LG - Augenabstand 2,8 meter; 27" LG - Augenabstand etwa 2,55 meter.

Wenn SD empfangen wird, schaut man sofort lieber auf den kleinen Monitor, (gilt auch für hochskaliertes Material, beispielsweise ARD-Nachrichten etc)

Aber sobald HD kommt, auch nur 1280x720, dann schaut man lieber auf den Großen !

Auf dem Grossen sieht man Details die auf dem Kleinen einfach untergehen!

Nun kam eine Einstellung in einem Spielfilm wo das von Mary kritisierte Phänomen der selektiven Schärfe auftrat. Ein Mann von hinten im Vordergrund - mässig unscharf gehalten; ein Mann frontal etwa einem Meter weiter hinten in Bildmitte - exakte Schärfeebene, und der Raumhintergrund - ebenfalls in leichter Unschärfe.

Diese beschriebene 'Komposition' der Schärfeebenen war auf dem 27" fast nicht mehr wahrnehmbar!
Alles schien gleichscharf, selbst der Mann im Vordergrund war fast scharf!
Die beiden anderen Schärfeebenen, also die exakte Schärfe des frontalen Akteurs und der Hintergrund, waren nicht mehr zu unterscheiden.

Ehrlich, m.E. sah das Bild auf dem Kleinen nur einfach langweilig aus, das Bild auf dem Großen dagegen hat eine Ästhetik ausgestrahlt. Das jedenfalls ist meine persönliche Meinung, nicht mehr.

Das wichtigste daraus scheint folgendes Fazit:

Wer lieber gern alles scharf hat, soll sich an kleine Monitore bei großem Sitzabstand halten.
Ich denke ein 70" 4k wird ihm nicht gefallen, da das Spiel mit der selektiven Schärfe dann noch stärker wird.
Also: Kleines Bild ist der wichtigste Fakt, ob 2k oder 4k ist m.E. nach, also d.h. nur unter diesem Aspekt alles scharf haben zu wollen, zweitrangig.

viele Grüße seifenchef
Nudgiator
Inventar
#273 erstellt: 28. Sep 2013, 20:11

seifenchef (Beitrag #272) schrieb:


Nudgiator (Beitrag #270) schrieb:
Was sieht besser aus: ein 720p-Bild auf einem 720p-TV oder ein hochskaliertes 720p-Bild auf einem 1080p-TV ? IMHO ganz klar ein 720p-Bild auf einem 720p-TV. Warum ? Man muß keine Pixel interpolieren !

Interessante Frage, hab ich noch nie testen können.


Ich schon. Hab vier Jahre lang einen 720p-Plasma TV besessen
Klausi4
Inventar
#274 erstellt: 29. Sep 2013, 16:16

Nudgiator (Beitrag #273) schrieb:

seifenchef (Beitrag #272) schrieb:


Nudgiator (Beitrag #270) schrieb:
Was sieht besser aus: ein 720p-Bild auf einem 720p-TV oder ein hochskaliertes 720p-Bild auf einem 1080p-TV ? IMHO ganz klar ein 720p-Bild auf einem 720p-TV. Warum ? Man muß keine Pixel interpolieren !

Interessante Frage, hab ich noch nie testen können.


Ich schon. Hab vier Jahre lang einen 720p-Plasma TV besessen ;)


Auch diese Frage spricht für einen 4K-TV, der alle kleineren HD-Formate problemlos hochskaliert...
Nudgiator
Inventar
#275 erstellt: 29. Sep 2013, 17:26

Klausi4 (Beitrag #274) schrieb:

Auch diese Frage spricht für einen 4K-TV, der alle kleineren HD-Formate problemlos hochskaliert...


Besitzt Du einen 720p-TV UND einen 1080p-TV und kannst beides vergleichen ? Ich ja ! Noch dazu steht bei mir ein Scaler für UVP 5500€, mit dem ich das wunderbar vergleichen kann. Glaube mir: 720p schauen auf einem 720p-TV besser aus, als auf einem 1080p-TV. Beim Hochskalieren muß der 1080p-TV in etwa die Hälfte der Pixel interpolieren. Das geht IMMER (!) auf Kosten der Details, Schärfe und Auflösung !
seifenchef
Inventar
#276 erstellt: 29. Sep 2013, 19:10
@ Nudgiator,

Nicht das ich an Deinen Aussagen zweifeln möchte, aber zur Sicherheit:

Vergleichst Du dann beide auch in exakt gleicher Blickwinkelausfüllung?

Wie groß sind Deine Vergleichsmonitore, welchen Abstand hast Du?

( also bei gleicher Größe, sagen wir beide 60", dann auch gleicher Betrachtungsabstand, ansonsten entsprechender Ausgleich)

gruß seifenchef


[Beitrag von seifenchef am 29. Sep 2013, 20:28 bearbeitet]
Nudgiator
Inventar
#277 erstellt: 29. Sep 2013, 22:25
Ich nutze hier aktuell einen TH-37PX80E, 65VTW60 und einen Beamer JVC-X35. Vor ein paar Wochen war auch noch ein TX-P50GT50E hier bei mir. Natürlich wird der Sitzabstand entsprechend der Bildschirm- / Leinwanddiagonalen angeglichen.
BillKill
Inventar
#278 erstellt: 30. Sep 2013, 11:09
Auf meiner alten Sony-Röhre 32" sieht 576i besser aus,als auf meinem Toshiba HD-Ready und noch viel besser als auf meinem neuen 55" Full-HD von Samsung - also wo ist das Problem?
Ganz einfach:
Parallel mit dem Trend zu größeren Bilddiagonalen sollte man sich endlich endgültig von der SD-Auflösung und möglichst bald von der 720er-Auflösung verabschieden.
Dumm,wenn man wie die ÖR"s zulange aufs falsche Pferd setzt.


[Beitrag von BillKill am 30. Sep 2013, 11:10 bearbeitet]
andi@71
Hat sich gelöscht
#279 erstellt: 30. Sep 2013, 12:35
Ich sehe bei der Fernsehauflösung durchaus eine Parallele zu Digitalkameras.
Da hat man auch in der Anfangszeit nach immer höheren Auflösungen geschrieen,weil sie halt auch notwendig waren.
Der Sprung hinauf auf 1024x768 Pixel war schon enorm.Ebenso auf 2 oder 3 Millionen Bildpunkte.
Jeder weitere Sprung nach oben hat aber immer weniger gebracht,und heute sind wir bei 20 und mehr Megapixel.

Deswegen mache ich aber trotzdem Bilder immer in der sinnvollsten Auflösung.
Fürs Web reichen 1024x768,für TV oder Ausdruck je nach Kamera zwischen 3 und 10 Millionen Bildpunkten.
Ich würde sagen für den der nicht croppen will oder muß sind 6MPixel im Privatbereich eine sinnvolle Auflösung.
Mehr braucht eigentlich niemand.
Die Frage ist jetzt wo liegt die sinnvolle Auflösung bei Film und Fernsehen.
Klausi4
Inventar
#280 erstellt: 30. Sep 2013, 16:01

andi@71 (Beitrag #279) schrieb:

Die Frage ist jetzt wo liegt die sinnvolle Auflösung bei Film und Fernsehen.


An der Quelle (Kamera) Immer bei der höchstmöglichen, runterskalieren danach geht immer gut. Deshalb war bis zur ÖR-HD-Einführung die Devise "bestmögliche Qualität/Auflösung vom Sender". Im Prinzip gilt das sogar bei den meisten 720p-HD-Anstalten intern: Arte HD z.B. nimmt unter 1080i-Auflösung nichts Neuproduziertes an - vernünftigerweise. Wer zuhause einen modernen Großbildschirm oder gar einen Full-HD-Beamer hat, wird es danken - und bei Sport-Livesendungen möglichst einen 1080i-HD-Sender nehmen, wenn er kann. Ein Vergleichsfoto von der Leichtathletik-WM-Übertragung zeigte beim ZDF HD an schrägen Kanten deutliche Treppenstufen, bei Eurosport HD nicht. Die Leute mit Mini-Bildschirm in der Küche nutzen halt nicht alle gesendeten Pixel aus und sehen solche Feinheiten nicht.

Diese Fragen sind m.E. nur brauchbar mit dem Zusatz "für wen" sinnvoll. Wenn die Ausstrahlung/Vorführung "für alle" gedacht ist, sollte vom derzeit anspruchsvollsten Nutzer (sprich Full-HD-Beamer) ausgegangen werden. Eine Einschränkung der Quell-Auflösung auf den kleinsten gemeinsamen Nenner 720p verärgert diese Nutzer/Gebührenzahler unnötig, vor allem wenn sie Vergleichsmöglichkeiten haben...
seifenchef
Inventar
#281 erstellt: 01. Okt 2013, 08:58
Hi,


BillKill (Beitrag #278) schrieb:
Auf meiner alten Sony-Röhre 32" sieht 576i besser aus,als auf meinem Toshiba HD-Ready und noch viel besser als auf meinem neuen 55" Full-HD von Samsung - also wo ist das Problem?


Vergleichst Du richtig mit gleicher Gesichtsfeldausfüllung; Blickwinkel?

Falls ja, und Du bleibst bei Deinem Urteil, weisst Du doch was das bedeutet?

Du darfst auf einem 4K fernseher nie 720p oder 1080i/p anglotzen!

Darüber solltest Du dir dann klar sein!



BillKill (Beitrag #278) schrieb:
Parallel mit dem Trend zu größeren Bilddiagonalen sollte man sich endlich endgültig von der SD-Auflösung und möglichst bald von der 720er-Auflösung verabschieden.


Darin sind wir uns wohl alle einig. Klar ist aber auch das wir nix machen können gegen die Anbieter. Ausser sie nicht mehr guggen.
Da bin ich leider auch aussen vor, da ich nicht großer Bezahlfernsehkunde werden möchte .... hab mir jetzt nur wegen dem Musikkanal mal HD+ geholt, den Rest dort kann ich nicht brauchen .... absoluter Müll ... da muss ich noch warten bis etwas mehr Alterssenilität eingetreten ist ....


mfg seifenchef


[Beitrag von seifenchef am 01. Okt 2013, 08:59 bearbeitet]
Stefanvde
Inventar
#282 erstellt: 01. Okt 2013, 20:01
Die Frage ist doch ob die heute oft verkaufen Bilddiagonalen überhaupt Sinn machen.

Wer sich 50 Zoll oder mehr hinstellt und sich dann wundert das Beiträge in den Nachrichten,die irgendwo in Kriesengebieten unter ungünstigsten Umständen schnell gedreht und in die Heimat übertragen wurden nicht toll darauf aussehen braucht sich doch nicht wundern...

Bei Wiedergabe von Konserve (BD oder noch besseren Nachfolgetechniken) sieht das ja anders aus,das Material liegt vor und wird lokal abgespielt.

Solche Bitraten aber von Sender über einen Satelliten bis in's Wohnzimmer übertragen ist aufwendig und teuer.

Denke man sollte schon unterscheiden zwischen Heimkino anschauen und einer TV Übertragung.
BillKill
Inventar
#283 erstellt: 02. Okt 2013, 10:07

seifenchef (Beitrag #281) schrieb:
Hi,


BillKill (Beitrag #278) schrieb:
Auf meiner alten Sony-Röhre 32" sieht 576i besser aus,als auf meinem Toshiba HD-Ready und noch viel besser als auf meinem neuen 55" Full-HD von Samsung - also wo ist das Problem?


Vergleichst Du richtig mit gleicher Gesichtsfeldausfüllung; Blickwinkel?

Falls ja, und Du bleibst bei Deinem Urteil, weisst Du doch was das bedeutet?

Du darfst auf einem 4K fernseher nie 720p oder 1080i/p anglotzen!

mfg seifenchef

Hallo seifenchef,
rückblickend stelle ich fest,daß die Halbwertszeit meiner Home-TV-Technik ca. 4 Jahre beträgt.
Was seit 12 Jahren nahezu konstant geblieben ist,ist der Sitzabstand (ca. 3m) und der Blickwinkel -/+5°

Subjektiv sind natürlich Änderungen eingetreten - die Ansprüche an die Bildqualität sind gestiegen, die Sehqualität der Augen leider etwas unschärfer geworden
Aber eines weiß ich mit Gewissheit: wir werden 2016 auch 720p gucken (müssen,wegen den ÖR"s,wahrscheinlich mit abnehmender Tendenz,wie gegenwärtig bei SD 576i, daß bei 55" ja schon beleidigend schlecht ist) aber bestimmt 1080i/p auf einem UHD-TV 65" ,weil das auch aus 3m top aussieht - das war ja der Hauptgrund, mich auf der IFA davon überzeugen zu können.
Ansonsten kann ja jeder entsprechend seiner TV-Nutzung (Anteile TV-Normalkost,SKY-HD ja oder nein,BD oder DVD,...) selbst entscheiden,ob 4k für ihn Sinn macht oder nicht.
Und - was ist daran so schlecht,daß die UE-Industrie den Umsatz ankurbeln und Geld verdienen will?
Kunden wie ich sind DIE ZIELGRUPPE
seifenchef
Inventar
#284 erstellt: 02. Okt 2013, 10:48
Hi BillKill,


BillKill (Beitrag #283) schrieb:
Aber eines weiß ich mit Gewissheit: wir werden 2016 auch 720p gucken (müssen,wegen den ÖR"s,wahrscheinlich mit abnehmender Tendenz,wie gegenwärtig bei SD 576i, daß bei 55" ja schon beleidigend schlecht ist) aber bestimmt 1080i/p auf einem UHD-TV 65" ,weil das auch aus 3m top aussieht - das war ja der Hauptgrund, mich auf der IFA davon überzeugen zu können.
Ansonsten kann ja jeder entsprechend seiner TV-Nutzung (Anteile TV-Normalkost,SKY-HD ja oder nein,BD oder DVD,...) selbst entscheiden,ob 4k für ihn Sinn macht oder nicht.
Und - was ist daran so schlecht,daß die UE-Industrie den Umsatz ankurbeln und Geld verdienen will?


Ich denke wir haben da schon einigen Konsens. Die Öffrees / ÖRs werden uns natürlich nerven, mich spätestens wenn ich mal einen TV hab der deutlich über 60" (ist meine jetzige Grösse bei 2,8 m Abstand) liegt.

Ansonsten ist es eben immer nur insofern schwierig, zwischen subjektiven Vorlieben und intersubjektivierbaren Kriterien hier zu unterscheiden.

Meine persönlichen Vorlieben liegen mehr in einem ausgewogenen Verhältnis von Auflösung und Bildgrösse, so das Beides, also Schärfe und gezielte Unschärfe (wenn es nicht permanent übertrieben wird) zum Tragen kommen. Das ist für meinen Geschmack bei 60" und 2,8m mit 1280x720p gerade noch der Fall.

Ich hatte hier mal letztens einen subjektiven Eindruck beschrieben:
http://www.hifi-foru...=4684&postID=272#272


Ich hab selbstverständlich nix dagegen wenn sich Freaks einen 65" 4K - TV leisten, ich hole ihn mir auch, dann wenn diese Sponsoren der Industrie dafür gesorgt haben das sich:
A.) Preis zweimal halbiert,
B.) das Materialangebot zweimal verdoppelt, und
C.) die Diagonale sich mindestens einmal verdoppelt hat

Falls ich so einen Sponsor mal in einer Kneipe treffe, gebe ich ihm ein Bier aus, denn auch ich als Techniker will ja schliesslich technischen Fortschritt und keinen Stillstand.

gruß seifenchef
BillKill
Inventar
#285 erstellt: 02. Okt 2013, 11:33

seifenchef (Beitrag #284) schrieb:
Hi BillKill,
-------------------
Ich hab selbstverständlich nix dagegen wenn sich Freaks einen 65" 4K - TV leisten, ich hole ihn mir auch, dann wenn diese Sponsoren der Industrie dafür gesorgt haben das sich:
A.) Preis zweimal halbiert,
B.) das Materialangebot zweimal verdoppelt, und
C.) die Diagonale sich mindestens einmal verdoppelt hat

...denn auch ich als Techniker will ja schliesslich technischen Fortschritt und keinen Stillstand.

gruß seifenchef

Tja, lieber seifenchef,
Deine Einstellung ist besonders als Techniker - wie sagt man- kontraproduktiv.
Verglichen mit dem Technikfortschritt (Ausstattung,Panelgröße)sind die TV-Preise auch wegen dieser Kundeneinstellung (ist natürlich ihr Recht) nie überproportional gestiegen.
Frage Philips,Grundig,Telefunken.Metz, Loewe....
Mein 32" Sony 16:9 Pal+Trinitron kostete 1996 ca 2.400DM
der 32" Toshiba TFT "Flachmann" 2004 ca 2.200€
der 42" PFL9803 von Philips 2008 ca. 2300€
der 55"ES8090 von Samsung 2012 ca. 2500€
Die Technik wurde immer besser und trotzdem habe ich fast immer die gleiche Summe bezahlt (die bessere Bildqualität wars mir/uns auch wert) und mal sehen:
den 65" XYZ UHD-TV wird es 2016 garantiert für ca. 2700€ geben und er wird es wert sein
nur - was du unter A-C erwartest wird nicht eintreten.

Gruß Billi
Mary_1271
Inventar
#286 erstellt: 02. Okt 2013, 22:35

Nudgiator (Beitrag #275) schrieb:
......... einen 720p-TV UND einen 1080p-TV und kannst beides vergleichen ? Ich ja ! Noch dazu steht bei mir ein Scaler für UVP 5500€, mit dem ich das wunderbar vergleichen kann. Glaube mir: 720p schauen auf einem 720p-TV besser aus, als auf einem 1080p-TV. Beim Hochskalieren muß der 1080p-TV in etwa die Hälfte der Pixel interpolieren. Das geht IMMER (!) auf Kosten der Details, Schärfe und Auflösung !


Hallo

Also jetzt wird es Zeit, daß ich mal ein kleines Veto einlege! Du besitzt einen Scaler für 5500,-€ der es nicht vermag, ein 720er Bild auf einen 1080er Display zumindest gleichwertig aussehen zu lassen? Wir haben einen Scaler/De-Interlacer der es vermag.......und dabei nur ca. 15% von Deinem gekostet hat. Außerdem ist es natürlich schon irgendwie ein Witz, wenn Du einen 37" TV (720p) und einen 65" TV (1080p) zum Vergleich heranziehst. Dir wird das Bild vermutlich auf dem kleineren TV immer etwas schärfer vorkommen. Nach Deiner Philosophie müßte dann also SD auf einem SD-Display (natürlich auch 65 Zoll) ambesten aussehen!? (Die olle Röhre lassen wir jetzt mal außenvor)

Vor etwa 8 Jahren war es z.B. noch lange nicht selbstverständlich, daß die "Flachmänner" ein gutes SD-Bild darstellen konnten. Als wir damals unseren ersten Flachmann kauften, sah SD auf vielen Flachmännern beinahe aller Hersteller aus der Nähe betrachtet echt zum Fürchten aus. Auf unseren damaligen 40-Zoller von Fujitsu-Siemens(HD-Ready) sah dagegen das SD-Bild ......besonders von DVD wirklich phantastisch aus. Da war sogar analoges Kabel noch einigermaßen guckbar.

Freilich ist es in aller Regel so, daß, wenn ich in ein Bild hineinzoome, einem der vergrößerte Abschnitt zunehmend unschärfer-werdend vorkommt und auch wird. Aber warum sollte nun ein intelligenter Algorithmus diesen unscharfen Ausschnitt nicht schärfer und detailreicher machen können? Bei diversen Krimis geht es doch auch!

Wir sitzen auf 2m bei unseren 55-Zoller und "dürfen" dabei .....nicht zuletzt Dank unseres externen Videoprozessors (DVDO-Edge), auf ein, selbst auf dieser Distanz, ordentlich aussehendes SD-Bild blicken. Bei guten DVDs kommt sogar schon sowas wie "HD-Feeling" auf.
DAS IST SO.......egal was hier die selbsternannten Experten nun behaupten mögen!

Es ist möglich, einen Unterschied 720 vs.1080 an einen Full_HD TV ausmachen zu können.......der aber hauptsächlich bei Full_HD-gerechtem Betrachtungsabstand zum tragen kommt (3xH). Ich möchte aber beinahe einen Spaten fressen, wenn man z.B. einen 65" TV mit einem (was es natürlich nicht gibt) 720p-Display- und einen 65" TV mit 1080p Display nebeneinander stellen würde, daß dann bei Full-HD gerechtem Betrachtungsabstand das 720p-Bild auf dem 720p Display sogar mieser wirkt als auf dem Full-HD TV!
Warum? Ganz einfach. Weil ich bei Full-HD gerechtem Abstand (3xH) auf dem Half-HD Display die einzelnen Bildpunkte erkennen kann! Geht man aber auf einen "HD für Arme"-gerechtem Abstand (4,5xH ....oder so), dann dürfte der Bildeindruck gleich sein! Und da kann mir hier jemand erzählen was er will!

Und wenn man den Berichten diverser Leute Glauben schenken darf, daß Full-HD auf einem 4K-TV detailreicher wirkt......dann wird sicherlich eine entsprechende intelligente Software in den Geräten dafür verantwortlich sein............Punkt.

Liebe Grüße
Mary
Nudgiator
Inventar
#287 erstellt: 03. Okt 2013, 13:57
@Mary

Ich beschäftige mich schon seit 13 Jahren mit Beamern, TVs und PC-Monitoren, kalibriere diese mit der aktuellsten Software / Hardware und besitze einen Videoprozessor, gegen den ein DVDO-Edge keinen Blumentopf gewinnt. Ich denke daher schon, daß ich beurteilen kann, wie ein 720p-Bild auf einem 720p-TV und einem 1080p-TV aussieht. Wenn Du da anderer Meinung bist: damit hab ich kein Problem
Mary_1271
Inventar
#288 erstellt: 05. Okt 2013, 13:44

Nudgiator (Beitrag #287) schrieb:
Ich denke daher schon, daß ich beurteilen kann, wie ein 720p-Bild auf einem 720p-TV und einem 1080p-TV aussieht. Wenn Du da anderer Meinung bist: damit hab ich kein Problem :prost


Hallo

Du sollst nicht nur kein Problem mit anderen Meinungen haben.......Du darfst auch ruhig etwas einsehen!



Die gute Mary schrieb:

Ich möchte aber beinahe einen Spaten fressen, wenn man z.B. einen 65" TV mit einem (was es natürlich nicht gibt) 720p-Display- und einen 65" TV mit 1080p Display nebeneinander stellen würde, daß dann bei Full-HD gerechtem Betrachtungsabstand das 720p-Bild auf dem 720p Display sogar mieser wirkt als auf dem Full-HD TV!
Warum? Ganz einfach. Weil ich bei Full-HD gerechtem Abstand (3xH) auf dem Half-HD Display die einzelnen Bildpunkte erkennen kann! Geht man aber auf einen "HD für Arme"-gerechtem Abstand (4,5xH ....oder so), dann dürfte der Bildeindruck gleich sein!


Das muß ganz einfach so sein!!! Warum gab es denn zu "Röhrenzeiten" die Empfehlung einen Sitzabstand von mindestens 5x die Diagonale einzuhalten? Ganz einfach. Weil man bei weniger Abstand die Loch- oder Schlitzmaske der Röhre recht deutlich erkennen konnte! Und genauso wäre es bei einem 65" 720p Display bei Full-HD Abstand. Folglich muß man zwangsläufig weiter wegrücken. Und demzufolge dürfte dann bei "Half-HD- gerechtem Abstand" auf beiden 65" Displays das Bild sowohl.....als auch gleich scharf sein. Denkst Du nicht?

Wenn ich auf unseren 19" Küchen-TV schaue (der hat nur einen DVB-S Empfänger), kommt mir das SD-Bild aus z.B. einem Meter Abstand sauscharf vor. Man hat also das Gefühl, daß es an dieser kleinen Kiste auch mit z.B. 720p nicht besserwerden könnte. Ein 720p Signal an einen 37" 720p-TV mit einem 65" Full-HDTV zu vergleichen ist irgendwie doch Mumpitz.



..........und besitze einen Videoprozessor, gegen den ein DVDO-Edge keinen Blumentopf gewinnt.


Das will ich doch auch gern glauben. Wir benutzen aber z.B. DD und DE im Edge. Diese Parameter können das Bild noch gehörig (unseren Wünschen entsprechend) "aufhübschen". Und wie ich hier im Forum gelesen habe, interessierst Du Dich z.B. für DARBEE. Was immer das genau ist.........das Ergebnis scheint mir umwerfend zu sein.

Und sowas ähnliches könnte doch in den 4K-TVs verbaut sein......die dann tatsächlich aus einem 2K Film beachtliches machen können! Oder nicht?

Deine Erfahrungen will ich Dir natürlich auch garnicht streitig machen! Daß Du nicht aus "Dummsdorf" kommst, merke ich auch so. Trotzdem wirst Du doch zugeben müssen, daß mein Gedankengang vielleicht weniger konfus ist, als er auf den ersten Blick scheinen möge.

Liebe Grüße
Mary
Nudgiator
Inventar
#289 erstellt: 05. Okt 2013, 13:53

Mary_1271 (Beitrag #288) schrieb:
Und wie ich hier im Forum gelesen habe, interessierst Du Dich z.B. für DARBEE.


Da mußt Du mich mit jemandem verwechseln
Mary_1271
Inventar
#290 erstellt: 05. Okt 2013, 14:18
Hallo Nudgiator

Dann muß das wohl Dein Zwilling sein!

Liebe Grüße
Mary
seifenchef
Inventar
#291 erstellt: 07. Okt 2013, 07:59
Hi AusdemOff,

Schöner Beitrag.


AusdemOff (Beitrag #254) schrieb:
Im Jahre 2005 hat die Digital Cinema Initiative DCI ein Digital Cinema Distribution Master definiert.
Dieser schreibt zur Verteilung von Digital Content das Kompressionsverfahren M-JPEG 2000 vor.


....ja, und wenn ich mich recht erinnere war doch JPEG2000 nichts anderes als das früher unter Wavelet bekannte Verfahren, lange zu unrecht geschmäht, und irgendwann dann doch in die Norm als JPEG2000 aufgenommen ....

Hinweis: keine GOPs, nur Intra-Frame-Kompression, dadurch keine Fehlerakkumulation (die bei 'normalem' MPEG während der Laufzeit einer GOP auftritt), was vermutlich der Ausschlag für die Filmfreaks war dies zu wählen (natürlich wesentlich höhere Datenrate)....



AusdemOff (Beitrag #254) schrieb:
Hier wären für H.264 und H.265 CABAC und CAVLC zu nennen.
Diese Verfahren sind in der Tat nahezu reversibel. Tragen aber nur zu maximal 30% der Bitrateneinsparung bei.


Hast Du Ahnung von dem 'Zeugs'? Kannst Du mir den Unterschied CABAC und CAVLC erklären/ gute Quelle angeben?



AusdemOff (Beitrag #254) schrieb:
Auf der Produktionsseite wird im RGB 4:4:4-Verfahren mit 10, 12 oder 14bit gearbeitet.
Die Blu-ray bringt es hier nur auf den Komponentenlevel mit YPbPr 4:2:0 mit 8bit.
Diese Unterschiede sind ansatzlos für jeden Menschen sofort erkennbar (sichtbar!).


Im direkten Vergleich bei guter Bildwiedergabeeinheit bestimmt.
Ich wäre auch dafür das sich zumindest mal 10 bit durchsetzen sollte, zumindest bis in den semiprof Bereich. Früher als ich noch mit Videomischer gearbeitet hab, kann ich mich erinnern, dass man bei Blenden, vor allem beim Durchgang durch den Bereich des mittleren Grau, sehr gut die geringe quantitative Abstufung ( 256 Stufen) von 8-Bit Technik gesehen hat.

gruß seifenchef
seifenchef
Inventar
#292 erstellt: 07. Okt 2013, 08:03
Hi Mary,

DARBEE

Zum erstenmal gehört.

Kann ich mit so'ner Kiste aus meiner Musik-Videosammlung, beispielsweise aus meinen alten Laserdisc-videos dann 1080 50p machen, und der Nachbar fällt tot um?

Nein im Ernst, hat das schon jemand gesehen?
Ist da was dran, oder nur Geschrei um Nichts?

gruß seifenchef
Mary_1271
Inventar
#293 erstellt: 07. Okt 2013, 16:40

seifenchef (Beitrag #291) schrieb:
Kannst Du mir den Unterschied CABAC und CAVLC erklären/ gute Quelle angeben?


Hallo Seifenchef

Ich komme zwar nicht "AusDemOff", kann dir aber sagen, daß das CABAC-Verfahren qualitativ hochwertiger beim z.B. Transcodieren ist.
Klick

Und zu DARBEE

Es steht fest. So ein "Kästchen" werden wir uns gönnen. Es wurde zwar meines Wissens hauptsächlich für die "Beamer-Fraktion" entwickelt, macht aber auch bei großen Display-Diagonalen bei HD-gerechtem Sitzabstand Sinn.

Schau mal hier rein. Das habe ich mir am Wochenende komplett durchgelesen und bin jedem Verweis nachgegangen. Man kann darüber denken wie man will.......aber Darbee scheint genau nach unseren Geschmack zu sein.
In Germanien sind die Kisten aber schwer zu bekommen. Bis jetzt weiß ich zwei Läden, die das Darbee für 349,-€ (exklusive Versand) anbieten...............aber recht lange Lieferzeiten haben. Man kann es auch bei Ebay kaufen. Allerdings sitzt der Verkäufer in Frankreich. In England wird das Gerät auch angeboten.......und natürlich auch direkt "in den Staaten" bestellbar.

Aus schlechtem SD-Materieal wird aber niemals HD werden! Wir besorgen uns so ein Ding. Dann kann ich es Dir ganz genau sagen.

Liebe Grüße
Mary

edit: Hier ist noch ein kurzer Bericht zu Darbee.


[Beitrag von Mary_1271 am 07. Okt 2013, 16:49 bearbeitet]
allwonder
Inventar
#294 erstellt: 07. Okt 2013, 17:21
Hi Mary,

ich habe das "Darbee" Kästchen gestern beim Beamer-Discount bestellt, die hatten ein Teil
auf Lager. Wird morgen mit UPS geliefert. Bin echt gespannt auf das Ding, soll meinen 3D Beamer noch
schärfer machen.

Auf dem 50" Plasma und 55" LED LCD wird das Teil natürlich auch getestet.

Gruß
allwonder
Mary_1271
Inventar
#295 erstellt: 07. Okt 2013, 20:02
Hallo Allwonder

Ach Du warst das!!! Dort wollte ich vorhin auch bestellen. Die hatten gestern noch einen am Lager........heute war er weg. Lieferzeit jetzt......2-4 Wochen.

Ich habe dann bei "GROBI" bestellt und bereits bezahlt. Die erwarten für morgen Lieferung. Wenn alles gut geht, können wir am Wochenende den Darbee testen. Auf Deinen Eindruck bin ich aber auch gespannt. Die Ergebnisse sollten wir aber im entsprechendem "Faden" kundtun. Hier paßt es nicht wirklich rein.......aber jetzt ist mir klar, wieso zumindest bei den Sony-4Ks das 2k-Bild deutlich besser gegenüber 2k-TV aussehen soll. Die haben da bestimmt etwas "entsprechendes" verbaut!

Liebe Grüße
Mary
seifenchef
Inventar
#296 erstellt: 08. Okt 2013, 07:55
Hi Freaks,

Hmmmm. 350 Euronen-Dollar scheint ja nicht sehr viel zu sein.
Ich hätte da eher was im vierstelligen Bereich erwartet ....?
Ist das nun Anlass zu Skepsis oder zur Freude?

Naja jedenfalls freue ich mich auf Eure Tests.

gruß seifenchef
Nudgiator
Inventar
#297 erstellt: 08. Okt 2013, 14:26

seifenchef (Beitrag #296) schrieb:

Naja jedenfalls freue ich mich auf Eure Tests.


Es gibt doch schon seit etlichen Monaten einen eigenen Thread zum Darbee mit Usertests ...
Mary_1271
Inventar
#298 erstellt: 08. Okt 2013, 16:33

seifenchef (Beitrag #296) schrieb:

Ich hätte da eher was im vierstelligen Bereich erwartet ....?
Ist das nun Anlass zu Skepsis oder zur Freude?


Hallo

Ja nuh........ das Gerät kann weder hochskalieren, noch de-interlacen noch sonstwas......bzw. "nur" sonstwas. Und wenn das "Sonstwas" erfüllt, was die Firma verspricht, sind 350,-€ geradenoch akzeptabel. Viel mehr hätte ich dafür nicht ausgegeben. Bei z.B. dem Lumagen-Videoprozessor mit integrierten Darbee wird man ja arm. Da dürfte "unsere Kombination" DVDO-Edge mit Darbee-Darblet 5000 hintendran fürs Geld das "Nonplusultra" sein.
Versandt ist das Kästchen bereits. Da gibt es am Wochenende etwas zum Testen.



Nudgiator (Beitrag #297) schrieb:

Es gibt doch schon seit etlichen Monaten einen eigenen Thread zum Darbee mit Usertests ...


Du meinst den hier? Oder gibt es noch einen anderen "Großen"? Mehr habe ich nämlich nicht gefunden.

Liebe Grüße
Mary
Ralf65
Inventar
#299 erstellt: 08. Okt 2013, 18:25
dann könnt ihr aber auch auf den neuen Oppo BD Player 103"D" warten, der hat den Darbee bereits integriert

also quasi 2 Klappen mit einer Fliege geschlagen
Nudgiator
Inventar
#300 erstellt: 08. Okt 2013, 18:28
... dann kannst Du den Darbee aber auch nur über den Oppo nutzen. Andere Quellen bleiben außen vor.
Ralf65
Inventar
#301 erstellt: 08. Okt 2013, 18:32

Nudgiator (Beitrag #300) schrieb:
... dann kannst Du den Darbee aber auch nur über den Oppo nutzen. Andere Quellen bleiben außen vor.


ich glaube, der 103 hat auch einen HDMI Eingang (der 105 hat ihn zumindest), dann wäre es zumindest für eine weitere Quelle ausreichend
das wären dann DVD und BD, sowie zusätzlich evtl. ein Sat-Receiver.....
außerdem kann über die Netzwerkfähigkeit des Opps's, sowohl auf Fotos und Filme vom Server zugefriffen werden, sowie weitere Internet Inhalte damit genutzt werden.

das sollte für Otto Normal Nutzer doch eigentlich ausreichend sein


[Beitrag von Ralf65 am 08. Okt 2013, 18:46 bearbeitet]
Mary_1271
Inventar
#302 erstellt: 08. Okt 2013, 20:09

Ralf65 (Beitrag #301) schrieb:
das sollte für Otto Normal Nutzer doch eigentlich ausreichend sein 8)


Hallo

Wir sind aber nicht "Otto Normalverblender". Demzufolge brauchen wir mindestens 3 HDMI-Eingänge! Und da wir u.a. einen Blu-ray Recorder besitzen, werden wir natürlich nicht extra einen Blu-ray Player kaufen. Noch dazu wird dieser 103er Oppo für weit über 800,-€ zwar das Darbee an Bord haben, aber sicherlich keinen DVDO-Edge ersetzen können.

Ein neuer, bezahlbarer Videoprozessor a la DVDO-Edge (oder so) mit integrierten Darbee für ca. 1000,-€..........ohne eine Sekunde zu überlegen......kaufen. Aber das, was wir vorhaben, sollte ebenfalls locker reichen.

Liebe Grüße
Mary
Suche:
Gehe zu Seite: |vorherige| Erste 2 3 4 5 6 Letzte |nächste|
Das könnte Dich auch interessieren:
K 4 - Ein Blick in die HD Zukunft -
joachim06 am 22.12.2007  –  Letzte Antwort am 22.12.2007  –  2 Beiträge
HD Zukunft in Deutschland
xmaspoo am 07.04.2011  –  Letzte Antwort am 08.08.2011  –  166 Beiträge
HDTV - Teure Zukunft !!!
joachim06 am 16.04.2005  –  Letzte Antwort am 18.04.2005  –  25 Beiträge
Ein par hochauflösende Schmankerln von der High End 2006
joachim06 am 26.05.2006  –  Letzte Antwort am 28.05.2006  –  2 Beiträge
Arte HD in Zukunft ab 2008
redtuxi am 09.01.2007  –  Letzte Antwort am 11.01.2007  –  2 Beiträge
4k@30Hz wirklich schlimm?
skywalker27 am 01.07.2016  –  Letzte Antwort am 01.07.2016  –  2 Beiträge
Bildprobleme Fire TV 4k
Roadrunner#1 am 10.05.2020  –  Letzte Antwort am 11.06.2020  –  9 Beiträge
4K auf PS4 Pro
Nietzsche28 am 25.05.2018  –  Letzte Antwort am 26.05.2018  –  12 Beiträge
Bitraten Broadcasting FullHD und 4K
AdamFFM am 02.07.2019  –  Letzte Antwort am 13.12.2019  –  8 Beiträge
Premiere und Discovery HD - Welchen Filme/Sendungen sind echtes HD?
ReneG am 03.12.2007  –  Letzte Antwort am 04.12.2007  –  15 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.721 ( Heute: 8 )
  • Neuestes MitgliedKranelite
  • Gesamtzahl an Themen1.551.066
  • Gesamtzahl an Beiträgen21.537.254