| HIFI-FORUM » Fernseher & Beamer » OLED-Fernseher » LG » Bewegungsdarstellung - MCFI, BFI, Rolling Scan, 24... | |
Gehe zu Seite: |vorherige| Erste .. 70 . 80 . 90 . 100 . 102 103 104 105 106 107 108 Letzte |nächste|
|
|
||||
Bewegungsdarstellung - MCFI, BFI, Rolling Scan, 24 FPS vs 48/50/60/120/240 FPS+A -A |
||||||
| Autor |
| |||||
|
seifenchef
Inventar |
#5265
erstellt: 15. Nov 2025, 20:48
|
|||||
|
Hi,
Mhhh, schön wärs. Leider, ich hab schon einiges Material von 24 oder 30 nach 60, oder 25 nach 50, gerechnnet mit AI. Wenn das Ausgangsmaterial - betrifft vor allem 24 er und 25 er Gelumpe - durch die 180 Grad Regel stark verblurt ist, ist alles umsonst. ... dann kann man es auch gleich so lassen wie es ist ... ... 30 fps (meist XXX) geht schon viel besser nach 60 fps zu wandeln ... gruß seifenchef |
||||||
|
seifenchef
Inventar |
#5266
erstellt: 16. Nov 2025, 14:49
|
|||||
Ja, die ÖRs verarschen uns seit 15 Jahren, sie haben sich für das HD-Modell mit der höheren zeitlichen Auflösung - Panasonic 720p 50 fps, entschieden, aber natürlich nicht mit dem Gedanken Qualität zu liefern, sondern rein nach dem Motto 'Geiz ist Geil'. (weil die Kisten nur die Hälfte der Sonys gekostet haben oder so ähnlich ...) So haben sie die geringe Bild-Auflösung von HD-Ready (1280x720 = 0,9 Megapixel = 2 x PAL) mit der niedrigen zeitlichen Auflösung des Sony 1080i50 kombiniert. Für das ConsumerRindvieh immer nur das billigste - ist doch klar. Seit einigen Jahren wird Sport bei denn ÖRs mit 50 fps übertragen, also falls Du Fußballfan bist, ich leider nicht ... Um 60fps mit Low Frame Schrott direkt zu vergleichen gibt es wenig Möglichkeiten. Ein sehr schönes/drastisches Beispiel ist Gemini Man, ziemlich am Anfang, wo die Kamera über die Eisenträger der riesigen Bahnhofshalle schwenkt. ... ich denke in 10 ? Jahren werden bessere TVs alle KI haben, die Produzenten drehen dann 3 fpd (3 Frames per day - spart Kohle ohne Ende...) und die KI macht dann für Dich einen Film Deiner Wahl daraus ... ... vielleicht ist das dann gar besser als den TOTORT immer als Ruckelschrott präsentiert zu bekommen ... gruß seifenchef [Beitrag von seifenchef am 16. Nov 2025, 14:53 bearbeitet] |
||||||
|
|
||||||
|
AusdemOff
Inventar |
#5267
erstellt: 16. Nov 2025, 16:52
|
|||||
Okay, dein Frust ist verständlich. Wenn schon verglichen wird, dann richtig. 576i/25 PAL: 720 x 576 x 25 = 10,4 Millionen Pixel pro Sekunde 720p/50: 1280 x 720 x 50 = 46,1 Millionen Pixel pro Sekunde 1080i/25: 1920 x 1080 x 25 = 51,8 Millionen Pixel pro Sekunde 720p/50 ist keine Erfindung der Firma Panasonic. Diese Auflösung wurde bei der SMPTE von Microsoft zur Debatte gestellt. Panasonic war die einzige Firma seiner Zeit die native 720p Camcorder anbot. Sony konnte das nie. Es wurde intern von 1080i/25 auf 720p/50 skaliert. Außer im Hause ZDF wurden keine 720p/50 Camcorder eingesetzt. Die damaligen Ikegami Studiokameras ware ebenfalls 720p/50. Alle anderen verwendeten entweder Camcorder von Sony auf 1080i/25, bzw. Sony und GV Studiokameras, ebenfalls auf 1080i/25 Basis. Einige Öffis verwendeten auch 1080i/25 Camcorder von Panasonic. Und mit Geiz ist geil hat das auch nichts zu tun. Preislich waren Panasonic und Sony Camcorder nicht wirklich weit auseinander. Und: HD-ready gibt es nicht als TV-Standard. Als die großen Diskussionen begannen erfand man die Diffamierung HD-ready um 1080i/25 zu puschen. HD-ready war ursprünglich dafür gedacht, in den Anfangszeiten der HD-Einführung, dem Kunden zu signalisieren das z.B. ein TV ein HD-Signal verarbeiten konnte, dieses aber nicht in den HD-Formaten dargestellt wird. Grund hierfür waren viele TVs die ihr Panel noch aus der IT-Industrie bezogen. |
||||||
|
Jogitronic
Inventar |
#5268
erstellt: 16. Nov 2025, 17:38
|
|||||
|
Die öffentlich-rechtlichen Sender senden ursprünglich in 720p/50, weil dieses Format eine bessere Bildqualität bei bewegten Szenen bietet als ein Format wie 1080i/25. Zum Zeitpunkt der Einführung gab es auch noch sichtbare Unterschiede bei der Bildverarbeitung, nicht jedes Gerät konnte vernünftig Bilder im Zeilensprungverfahren (interlaced) verarbeiten. Aus heutiger Sicht ist das Schnee von Gestern, denn u.a. wurden ja Bandbreite und Speicherkapazität massiv ausgebaut. [Beitrag von Jogitronic am 16. Nov 2025, 17:40 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5269
erstellt: 17. Nov 2025, 01:16
|
|||||
Ja, theoretisch. Sie haben es aber praktisch NIIEEEEE genutzt !!!! Sondern immer jedes Bild zweimal gesendet! Jetzt, seit einigen Jahren, machen sie wenigstens den Sport in 50p, schaue ich aber nicht .... Ich würde gern mal den Tatort in 1080 50p sehen, aber das werde ich wohl nie erleben .... gruß seifenchef [Beitrag von seifenchef am 17. Nov 2025, 01:16 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5270
erstellt: 17. Nov 2025, 01:22
|
|||||
Einverstanden. Und PAL war - bevor es 'gleichgemacht wurde mit NTSC' (720 horizontal) Netto 768 x 576 Pixel ! (im Media100 und glaube auch im AVID konnte man dies noch wählen ...) Also 423 000 Bildpunkte, also rund die Hälfte von HDReady ... ... 10 % Unterschiede spielen keinerlei sichtbare Relevanz ... gruß seifenchef [Beitrag von seifenchef am 17. Nov 2025, 01:24 bearbeitet] |
||||||
|
Jogitronic
Inventar |
#5271
erstellt: 17. Nov 2025, 08:17
|
|||||
Nenne mir bitte mal eine zuverlässige Quelle für diese Behauptung [Beitrag von hgdo am 18. Nov 2025, 17:04 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5272
erstellt: 17. Nov 2025, 11:21
|
|||||
|
Einfach hinschauen, da siehst Du den Müll ruckeln. Meine Panasonic Reciever haben von der Festplatte auch eine Einzelbild-Wiedergabe, da kannst Du es auch prüfen. Es geht nur ums Geld (weniger Speicherplatz, weniger Renderzeit), um sonst gar nichts! Wenn Du es nicht siehst, freu Dich, die Masse siehts auch nicht, bzw. findet es obergeil. gruß seifenchef [Beitrag von hgdo am 18. Nov 2025, 17:03 bearbeitet] |
||||||
|
fakeframe
Stammgast |
#5273
erstellt: 17. Nov 2025, 13:11
|
|||||
|
720p ist mir eh zu unscharf im Vergleich zu 1080i (Schriften und Konturen bei halber Auflösung verschwommener). Ich kann dazu auch Vergleichsscreenshots reinstellen. Einmal von Kabel TV und einmal von Internetstreams, die bei den ÖR der ARD inzwischen meistens in Full HD gesendet werden. Leider ist die Bitrate zu gering, so dass die Internetstreams bei Bewegungen zu pixelig erscheinen (wahrscheinlich bei Magenta TV anders). Wenn wenigstens bis auf Filme die möglichen 50 Frames die Sekunde genutzt würden, wäre das schon mehr als die halbe Miete für eine ruckelarme (nicht -freie) und schärfere Bewegungsdarstellung. Mit 100 fps nativ hätte man sicher das Sahnehäubchen. Aber das gibt es nur bei PC Spielen mit potentem Rechner. Bei Video wird sich das wohl nie durchsetzen, zumal man auf immer besser werdende KI basierte MCFI setzen wird. [Beitrag von fakeframe am 17. Nov 2025, 13:15 bearbeitet] |
||||||
|
AusdemOff
Inventar |
#5274
erstellt: 17. Nov 2025, 16:20
|
|||||
Ja, im Overscan. Diese Funktion besaßen die meisten Röhren-TVs aber gar nicht. Offiziell nutzbar waren nur die 720 Bildpunkte horizontal. |
||||||
|
AusdemOff
Inventar |
#5275
erstellt: 17. Nov 2025, 16:26
|
|||||
Seit wann ist 1280 die Hälfte von 1920, bzwi 720 von 1080?
Dem ist nicht so, weil die Öffis mittlerweile in 1080i/25 produzieren. Würden sie dies in 720p/50 tun, gäbe es diesen "Ruckelschrott" nicht.
Was hierbei nativ sein soll erschließt sich mir nicht. 100p Geht mit vielen Kameras, Servwern, NLEs, etc. Nur die TVs, die bräuchten ein Update. 100p wäre aber in der Tat, speziell für 4k der entscheidende Wow-Effekt, insbesondere beim Fussball und allen anderen Sportarten. [Beitrag von hgdo am 18. Nov 2025, 17:06 bearbeitet] |
||||||
|
AusdemOff
Inventar |
#5276
erstellt: 17. Nov 2025, 16:46
|
|||||
Hier geht es ein bisschen D'runter und d'rüber. Es gab mehere Hauptgründe weshalb die Öffis seinerzeit auf 720p/50 in der Distribution setzten: - geringere, wenn vielleicht auch vernachlässigbar kleinere Datenrate - bessere Bewegtbilddarstellung, wenn auch die meisten Bilder im TV aus Standbilder bestehen - bessere Kompatibilität zu den TVs. Bis auf "Restbestände" arbeiteten und arbeiten heute alle TVs intern progressiv - Zukunftssicherheit. Die Zukunft, getrieben durch die IT-Industrie würde progressiv arbeiten. Die IT-Industrie tat diers damals schon - Kompatibilität zu zukünftigen TV-Systemen. Es war damals schon klar das HD nur eine Interimslösung darstellte. 4k würde progressiv sein. Es ist einfacher ein 720p/50 in ein 2160p/50 Signal zu integrieren als ein 1080i/25 Die Produktionsseite sah dasds etwas anders: - Kameras auf Basis p haben grundsätzlich eine Blende weniger (Sensitivität) - 720p nativ wurde nur von Ikegami und Panasonic und in Teiulen von GV unterstützt. Hauptzulieferer war aber Sony - Nun wird es etwas seltsam: Aufgrund des Zeilensprungverfahrens hat interlaced eine ähnlich hohe visuelle Bewegtbilddarstellung Neutraler Fakt: Im Expert-/Non-Experting Double Blind View Test konnte nicht eindeutig visuell zwischen 1080i und 720p unterschieden werden. Dies ist ein Fakt der immer wieder bezweifelt und heftigst diskutiert wird. Beide Systeme bieten für unterschiedliche Bildvorlagen Vor- und Nachteile. Baut man sich aber einen statistisch relevanten Mix aus typischen TV-Szenen zusammen fallen typische Unterscheidungsmerkmale in der Summe aber nicht mehr ins Gewicht. Prof. Dr. Hedtke von der Hochschule Rhein-Main kreierte sogar einmal den Begriff das 720p HD für Arme sei. Dr. Hoffmann von der EBU wollte dies natürlich nicht so stehen lassen, empfahl die EBU doch 720p europaweit als Ablösung zu PAL. Ergo organisierte man in Wiesbaden einene Double-Blind Test. Das Ergabnis war eindeutig: kein visueller Unterschied erkennbar. Prof. Dr. Hedtke gab den Überzeugten und dementierte seine Aussage. Ach ja: "Sie haben es aber praktisch nie genutzt! (720p)" Falls es zwischenzeiztlich nicht geändert wurde, restlos alle Sendungen der heute-Redaktion werden in 720p produziert und auch gesendet. [Beitrag von hgdo am 18. Nov 2025, 17:02 bearbeitet] |
||||||
|
fakeframe
Stammgast |
#5277
erstellt: 17. Nov 2025, 17:12
|
|||||
|
Vllt ergibt 720p in der Gesamtzahl der Pixel ungefähr die Hälfte von Full HD ![]() Merkmal............Full HD (1080p)............ HD ready (720p) Auflösung.........1920 x 1080 Pixel..........1280 x 720 Pixel Gesamtpixel ca. 2,07 Millionen...............ca. 1 Million Quelle: Google KI Ich meinte ja nicht die vertikale Auflösung. So oder so wird viel verschenkt. Tatsächlich ist aber der Unterschied zwischen FHD und 720p nicht so groß wie zwischen 720p und 576p, da einiges von 1080i oder gar 4K auf 720p konvertiert wird und damit das Ausgangsmaterial besser ist, als wenn es von Anfang nur SD/576p ist. Aber ich sehe den Schärfeunterschied, egal was andere Experten sagen. Fakt bleibt, dass vieles, was in 50p gesendet wird, leider nativ nur in 25p vorliegt. Das sieht man daran, dass es stark ruckelt. Bei nativen 50p dürften z.B. bei Kameraschwenks kaum Ruckler zu sehen sein. Darunter leider die zeitliche Auflösung und die vertikale Auflösung "bricht" auch durch den Blur im Quellmaterial bei Bewegung zusammen. Es sind ja keine Fotos, sondere bewegte Bilder. In 720p50 gesendet # in 720p50 produziert. [Beitrag von fakeframe am 17. Nov 2025, 17:28 bearbeitet] |
||||||
|
Jogitronic
Inventar |
#5278
erstellt: 17. Nov 2025, 19:26
|
|||||
Denn nenne ich mal Quellen ... "Zweimal gesendet" betraf die parallele Übertragung von SD und HD per Sattellit und hat nichts mit der Bildrate zu tun https://hilfe.ard.de...amme-via-satellit-1/Warum seiner Zeit die Entscheidung auf 720p fiel und was das ist, beschreibt der folgende Artikel https://www.computer...dern%20pro%20Sekunde.Falls du jetzt immer noch anderer Meinung bist, nenne bitte die entsprechenden Quellen. [Beitrag von hgdo am 18. Nov 2025, 17:07 bearbeitet] |
||||||
|
Jogitronic
Inventar |
#5279
erstellt: 17. Nov 2025, 19:39
|
|||||
Ausschlaggebend ist die benötigte Bandbreite. Schau mal in die entsprechende Tabelle von RTINGS KlickEine höhere Bandbreite stand damal einfach nicht zur Debatte. HD720/50-60p benötigt 2.23 Gps, genauso wie HD1080/50-60i. (HD1080/25i wird da leider nicht gelistet) Warum man dann auf 720p gesetzt hat, erklärt der zuvor genannte Artikel aus der Computerbild. |
||||||
|
AusdemOff
Inventar |
#5280
erstellt: 17. Nov 2025, 23:22
|
|||||
Wieder einmal ein Beweis dafür wie unsinnig eine KI antworten kann. Mist rein, Mist raus. Was die KI hier eindeutig unterschlägt ist die Tatsache das in einem Interlaced-Format zu einem bestimmten Zeitpunkt eben nicht alle Pixel zur Verfügung stehen, bzw. gesendet werden. Man erinnere sich: Im Unterlaced-Format werden zuerst alle ungeraden Zeilen von oben nach unten übertragen. Dann, wenn die letzte ungerade Zeile übertragen wurde, startet der TV wieder oben mit den geraden Zeilen. Deshalb ist die Vertikalauflösung im Interlaced-Format eben nur noch die Hälfte, also 540 Zeilen. Aus diesem Grund kann man nicht einfach die Pxel H x V miteinander multiplizieren. Dies kann man nur innerhalb der progressiven oder Interlaced-Systemen, nicht aber über Kreuz. Zur Berechnung der Netto-Datenraten: Im Prinzip ist das relativ einfach. Die Netto-Datenrate eines Fernsehsystems errechnet sich wie folgt: Pixel (H) x Pixel (V) x Bilder/s x Bittiefe x 1,5 (gilt für 4:2:0-Signale welches heutzutage gesendet wird) 1920 x 1080 x 25 x 8 x 1,5 = 0,622 Gbps 1280 x 720 x 50 x 8 x 1,5 = 0,553 Gbps HD1080/25i ist das gleiche wie 1080i/50, bzw. 1080/50i. Der Link zu der HDMI-Tabelle ist deswegen etwas irreführend, weil hier jeweils die maximale Datenrate des jeweils existierenden Formates angegeben wird. Hierbei werden alle Daten des Videosystems erfasst, also auch die nicht sichtbaren Zeilen der Austastlücke und mögliche in ihnen enthaltene Zusatzdaten. Zur Begründung der Wahl zum 720p-Format war wohl folgendes gemeint: "Das ZDF argumentiert weiter für eine 720p-Ausstrahlung: Die Ausrüstung des Senders, die die Halb- in Vollbilder umrechnet, liefere eine deutlich bessere Qualität als die Bildelektronik in den heimischen TV-Geräten, die die gleiche Arbeit übernehmen müsste." Ein uraltes Thema, welches so nicht wirklich stimmt. Die De-Interlacer in den TV-Geräten sind viel besser als ihr Ruf. Was aber schon damals ins Gewicht fiel und durchaus heute noch richtig ist, sind die Software-De-Interlacer in den PCs, Tablets und Handys. Diese liefern mitunter grausame Ergebnisse. Wie man es dreht und wendet, es wird und wurde viel in 1080i/25 produziert und dann in 720p/50 gesendet. Richtig schlimm wird es, wenn es zum "Tatort" kommt. Das ist eine Produktion in 1080p/24. Weshalb nun nicht in 25p, würde doch besser zum 50p passen? Für eine Produktion muss man immer den Zielmarkt im Auge behalten. Denkt man also an eine internationale Vermarktung, eignet sich 24p besser als 1080i/25 oder gar 25p. Das mit den doppelt gesendeten Bildern ist natürlich ebenfalls nicht ganz richtig. Im einfachsten Falle, wenn man aus 1080p/25 720p/50 machen muss, könnte das so aussehen als ob das Bild einfach zweimal gesent werden würde. Die hierfür eingesetzten Formatkonverter arbeiten aber bewegungskompensiert. Dies bedeutet, das der Konverter zwischen zwei 25p-Bildern die Unterschiede in den Bewegungen detektiert und nur aus ihnen ein Zwischenbild berechnet. Der statische Bildanteil wird dupliziert. |
||||||
|
Aragon70
Inventar |
#5281
erstellt: 18. Nov 2025, 01:31
|
|||||
|
Der Trend geht eh Richtung Internet TV. Magenta TV ist dermaßen viel praktischer als das alte Kabel TV. Zappen geht ultra schnell und man braucht kein TV Kabel mehr. Wlan reicht. Sicher dürfte es noch einige alte Leute geben denen man das nicht zwingend zumuten kann. Aber in 10-20 Jahren sind die auch ausgestorben. Im Moment ist halt TV auf eine Framerate fixiert, Magenta TV läuft auf dem Amazon Fire Stick auch nur flüssig wenn ich es auf 50 hz fixiere. Aber diese Einschränkung wäre naürlich völlig unnötig, prinzipiell kann auch der Firestick, wie mittlerweile die meisten Streaming Geräte Framerate Matching. Alternativ könnteaber auch eine FI in der Lage sein jede Framerate in jede andere so umzurechnen das es dabei keine Ruckler gibt. Also 24 fps auf 25 fps geht auch. In dem Fall muß die FI in der Lage sein beliebige genaue Frames innerhalb der Original Frames erstellen zu können die ggfs. permanent ignoriert werden. Abgesehen davon könnte man es auch langsam mal hinbekommen das die Apps VRR verwenden, damit würde die Umschaltung auf verschiedene Bildwiederholfrequennzen ohne Flackern bzw. Bild aussetzer gehen. Ist aber allgemein so ein Trauerspiel mit dem Framerate Matching von verschiedenen Apps. Mit der Youtube App geht das ja auch nicht und dort gibts Kreuz und quer 24, 30,50,60 fps Inhalte. Man bräuchte einen 600 Hz TV um die alle zumindest ohne Pulldown Ruckeln azuspielen. Irgendwie armselig das man ständig neues Zeug erfindet, nach dem keiner gefragt hat wie z.B. HDR, aber diese grundlegenden eigentlich wichtigeren Probleme bekommt man nicht gelöst. |
||||||
|
fakeframe
Stammgast |
#5282
erstellt: 18. Nov 2025, 01:49
|
|||||
|
4K und 24p, das beißt sich. Bei den ganzen Auflösungssteigerungen der letzten 20 Jahre wurde die Framerate sträflich vernachlässigt. Ich sehe zudem lieber originäre Bilddetails bei Bewegungen statt durch eine MCFI erfundene. |
||||||
|
ehl
Inventar |
#5283
erstellt: 18. Nov 2025, 09:45
|
|||||
Nein, denn viele Streamingboxen zwingen dank android jede Framerate auf auf 60Hz Ausgabe, da nützen auch keine 600Hz panel. Bei tv-internen Apps wurde hingegen das Framerate-Matching schon vor ca. 15Jahren durchgeführt Wobei ich den 3:2 Pulldown eh kaum wahrnehme, problematisch ist eher die 60Hz Wiedergabe von 25p + 50p Inhalten. Smarttube (werbefreie Youtube App) soll das Framerate Matching auf dem firetv stick unterstützen, die Umschaltung gelingt auch wie mir der TV anzeigt. Komplett ruckelfrei werden 24p Inhalte aber dennoch nicht wiedergegeben und 50p leidet an deutlichen Aussetzern, 25p wiederum merkwürdigerweise kaum. Liegt es an smarttube? Oder an der zugrunde liegenden Youtube-app ? Oder doch am Firetv Stick? Denn wie gesagt, es wird erfolgreich auf die passende Panelfrequenz umgeschaltet, das Framerate Matching wird damit also durchgeführt. |
||||||
|
AusdemOff
Inventar |
#5284
erstellt: 18. Nov 2025, 10:04
|
|||||
|
Ironie der Geschichte: Zu der Zeit der HD-Einführung wurde bei den Öffis heftigst diskutiert ob man eine automatische Umschaltung von 50 auf 25 Bilder pro Sekunde zulassen sollte. Erstaunlicherweise fielen viele Settop-Boxen, SAT-Receiver und TVs bei einem Feldversuch durch. Entweder flackerte das Bild ein paar Sekunden lang, oder die Geräte verursachten einen Neustart. Alles im linearen Programmbetrieb ein No-Go. Man erwartete haufenweise Beschwerden die man eigentlich nicht zu verantworten hätte. Das Thema Framerate wurde nur bedingt vernachlässigt. 1080i/25 und 720p/50 wurden von Anfang an nur als Interimslösung betrachtet. Die Industrie war hier schon viel weiter. Der einzige Sender, der tatsächlich etwas nach vorne dachte war das ZDF. Schrittweise wurde die Produktionskette auf 1080p/50 getrimmt. Nur leider war die Industrie wieder schneller. 1080p/50 Geräte gab es zwar recht schnell, verpackt in 4k-Geräten. Und schon fingen die Öffis wieder an zu träumen. Da ihnen die Datenrate von 1080p/50 eh schon zu hoch war, hoffte man nun auf ein 2160i/25 (!). Jetzt spielte aber die Industrie nicht mehr mit. Hier wollte man endlich weg von diesem Technikdinosaurier namens Interlace. Recht schnell wurde klar, das ein Motion Blur aufgrund zu geringer Bildwiederholrate auf großen TVs (50" und größer) leider immer sichtbarer ins Auge fällt. In Deutschland passiert auf absehbarer Zeit erstmals nichts in Sachen Bildqualitätsverbesserung. Noch nicht einmal 1080p/50 wird ernsthaft für die Ausstrahlung erwägt. Und der, der es nicht glaubt, selbst 2160p/50 bereitet in der Produktion, aufgrund der hohen Datenrate, immer noch Probleme. Gerade in Deutschland, in der eine gewisse Firma mehr als 50 % Marktanteil besitzt, ist nicht in der Lage native 4k-Kameras anzubieten. Die meist verkaufte Kamera ist eine Mogelpackung mit Pixelshifttechnologie. Die einzige Hoffnung in Sachen Bildqualitätsverbesserung wird die Industrie liefern müssen. Früher oder später wird es keine Geräte mehr geben die 1080i/25 anbieten. Mit der Einführung von HD verschwand seinerzeit auch 576i/25 (PAL). Alles eine Frage der Zeit. Ob Europa, über die EBU gesteuert, zu einem gemeinsamen 1080p/100 oder gar zu einem noch sinnvollerem 2160p/100 findet, bleibt abzuwarten. 2160p/100 deshalb, da sich die Durchschnittsdiagonalen von TVs suggzesive erhöhen. Z.Zt. liegt man bei ca. 48 - 50". Tendenz steigend. |
||||||
|
Aragon70
Inventar |
#5285
erstellt: 19. Nov 2025, 01:34
|
|||||
|
Interlace sollte man langsam einfach zu den Akten legen. Macht inzwischen keinen Sinn mehr. Wenn man unbedingt an der Datenrate sparen will dann lieber die Bitrate des Codecs reduzieren. Wenn man sich schon auf einen neuen Standard einigen will dann wäre es doch schlauer auf 120 fps zu gehen. Mit 120 fps kann man die 24 fps zumindest fehlerfrei abbilden. Aber wie schon gesagt. Die Lösung für all diese Probleme wäre VRR, das kann inzwischen praktisch jeder halbwegs moderne TV. Brauchbares Framerate Matching zu machen sollte nun auch kein solches Drama sein. 2026 soll ja HDR10+ Intelligent FRC kommen was erlaubt das auch TVs das von Avatar 2 bekannte Motion Grading zu unterstützen. Und wenn man das sauber machen will, also ohne FI und mögliche Artefakte, sollte der Film an sich in 48 fps vorlegen. Wobei ich mich gerade frage warum man das brauchen sollte. Der Film könnte eigentlich durchgehend in 48 fps abgelegt sein und wenn man die 24 fps will dann ist der Teil des Films halt in 24 fps und die Frames sind doppelt abgelegt, |
||||||
|
Jogitronic
Inventar |
#5286
erstellt: 19. Nov 2025, 07:27
|
|||||
Mit VRR funktioniert keine Zwischenbildberechnung
Das würde dann sicher flimmern. Also wie wird das Problem gelöst? Man könnte das wie üblich verdoppeln und das Display läuft dann mit 96 Hz? |
||||||
|
ehl
Inventar |
#5287
erstellt: 19. Nov 2025, 08:44
|
|||||
Nein, sample&hold displays flimmern nicht. So nebenbei, 60Hz tvs haben zur nativen 24p Wiedergabe schon vor über 15 Jahren in den 48Hz Modus geschaltet. Ansonsten existierten keine 24p fähigen 60Hz TVs und der 3:2 Pulldown wäre dort stets unvermeidlich. Ist er aber nicht, wie man z.B. rtings Tests entnehmen kann |
||||||
|
fakeframe
Stammgast |
#5288
erstellt: 19. Nov 2025, 14:49
|
|||||
|
Die Film- und Fernsehindustrie hätte sich schon vor Jahren auf einen neuen Standard für Frameraten einigen müssen, aber im Grunde kann ja jeder sein eigenes Süppchen kochen. So wie bei Kinofilmen die Auflösungen zwischen 2K, 3.4K, 4K, 5K, 6K und 8K munter schwanken. Nur dass viele Kinofilme mittlerweile in mindestens 4K als Master produziert werden. Durch die 24p und/oder S&H sieht man aber effektiv nur rund 300 Pixel die Sekunde. Mit 60p wäre das bewegte Bild auch ohne MCFI relativ scharf. |
||||||
|
Jogitronic
Inventar |
#5289
erstellt: 19. Nov 2025, 15:15
|
|||||
|
Die werden nur umdenken, wenn es mal einen entsprechenden Film gibt und alle sagen "das ist toll". So war das vor langer Zeit mit Avatar und 3D, womit der 3D-Hype startete. Es gab - soweit ich mich erinnere - auch mal einen Versuch in Hollywood bzgl. "was die beste Bildwiedergabe wäre". Ergebnis: 120 fps und 3D. Bei dem Versuch wäre ich ja zu gerne dabei gewesen... Meine 3D Filme habe ich per Projektor aber auch mit maximaler Zwischenbildbrechnung geschaut, was 120 fps entspricht aber natürlich nicht so gut wie echte 120 fps ist. Jetzt wo es große und superhelle TV gibt, wäre es an sich mal an der Zeit 3D zu "reaktivieren". Der Aufwand wäre für TV Hersteller ja nur sehr gering. |
||||||
|
AusdemOff
Inventar |
#5290
erstellt: 19. Nov 2025, 18:56
|
|||||
Das ist heute die größte Fehleinschätzung. Für 3D bedraf es zwei Videostreams parallel. D.h., das komplette Equipment verliert die Häfte seiner I/Os. Hast du jemals eine echte Fernsehkamera gesehen oder in Händen gehalten? Selbst mit einer Optik sind die Dinger schwer. Das größte Gewicht bringen die Optiken. Und da fängt auch das Problem an. Beide Optiken müssen sich sehr gleichen. Tun sie es nicht sind Probleme vorporgrammiert. Bitte daran denken, im TV werden vollmotorisierte Zoomoptiken verwendet. In Hollywood sind es meist Festbrennweiten. Darüberhinaus verwendet Hollywood große Sensoren. Im TV, bis auf sogeannte Beautyshots, sind es maximal 2/3". Das macht den Bau einer Optik um ein vielfaches problematischer. Es geht also nicht darum einfach 3D in TVs einzubauen. Es muss auch Kontent produziert werden. Ab und zu einmal ein 3D-Blockbuster genügt hier nicht. Die 3D-Geschichte hat auf Seiten der Industrie zu Bruchlandungen und Geldvernichtung geführt. Solange das Optikproblem nicht gelöst ist und brillenloses 3D nicht möglich ist wird es eher still um 3D bleiben. Hochglanzproduktionen wie Avatar kann es vielleicht geben. Ein Hype wird es zu unseren Lebzeiten nicht mehr geben. |
||||||
|
ehl
Inventar |
#5291
erstellt: 19. Nov 2025, 19:41
|
|||||
|
Jogitronic
Inventar |
#5292
erstellt: 19. Nov 2025, 20:36
|
|||||
Für 3D greife ich ins Regal und nehme eine 3D Disc Filme kann man ja auch immer noch in 3D kaufen. Dass das beim Streaming jetzt auch kein großes technisches Problem ist, zeigen ja gerade Disney und Google. Die benötigte Technik für die Disc Wiedergabe ist vorhanden, da muss auch nichts mehr neu entwickelt werden. Wenn die TV Hersteller "gnädig" gewesen wären, hätten die das auch einfach als Option beibehalten können, siehe Projektoren. Was soll`s, das ist nicht das erste und auch nicht das letzte Format im Audio- und Videobereich, welches wieder eingestellt wurde Das nächste Bildformat was wieder verschwinden würde ist HDR / DV, denn das ist den meisten Anwendern zu dunkel. Das hat die Branche ja erkannt und legt entsprechend aufhellende Bildmodi nach. "Der große Wurf" ist das für die breite Masse jedenfalls nicht. Kommen wir mal wieder zum Thema High-Frame-Rate. Da habe ich doch arge Bedenken dass das ein Erfolg würde. Dank Zwischenbildberechnung schaue ich jetzt schon ruckelfrei/flüssig TV. Die Einstellung entspricht etwa 60fps. Das mich denn "echte" 48fps vom Hocker hauen, kann ich mir nicht wirklich vorstellen. Falls ein Kino in meiner Nähe das mal anbietet, schaue ich mir es aber garantiert mal an. |
||||||
|
AusdemOff
Inventar |
#5293
erstellt: 19. Nov 2025, 22:10
|
|||||
|
Du redest immer nur von Konserven als Quelle. Irgendwann wird auch Avatar so "alt" sein wie "Vom Winde verweht". Das mögen dann nur noch wenige ansehen. Lohnt sich für die Industrie null. Bei der Einfüjhrung jeder neuen Technik werden Fehler gemacht, so auch bei HDR. Über das "es ist zu dunkel"-Problem ist man mittlerweile auch schon weit hinweg. 4k ohne HDR gab es zwar, mangels HDR-fähigen Equipment auf allen Seiten, ist aber heute prinzipiell miteinander verbunden. Aragon sprach auch schon vom HDR10+ mit intelligent FRC. Da HDR10+ als Gegenentwurf zu Dolby Vision und PQ von Samsung und Panasonic aus der Taufe gehoben nicht funktionierte, wird diese Variante auch nur ein Nischendasein fristen, bis es ganz verschwindet. Die TVs werden schneller als es uns lieb ist mit höhren Frameraten umgehen können. Leider wird die Content-produzierende Seite da nicht mithalten können. Und nein, 48fps werden dich nicht vom Hocker hauen. Sieht zwar flüssiger aus, ist aber nach wie vor voller Motion Blur. |
||||||
|
Jogitronic
Inventar |
#5294
erstellt: 19. Nov 2025, 23:58
|
|||||
? Die letzen 35 Jahre habe ich halt die Entwicklung im Heimkinobereich mitgemacht, inklusive 3D. Deswegen kenne ich auch ganz gut den Stand der Dinge. Natürlich beobachte ich weitere Entwicklungen, nach diversen Flops bin ich aber bei einem neuen Hype skeptisch geworden. 3D hat gezeigt, wie gnadenlos ein gutes Format wieder eingestapft wird, weil die breite Masse es nicht nutzt. Hat die breite Masse ein Interesse an 48fps oder einer variablen ZBB? Ganz sicher nicht, aber die Leute werden das DV2 Logo kaufen ...
HDR ist kein Fehler, sondern ist halt nicht für eine Betrachtung in heller Umgebung ausgelegt worden. Das ist ein Bildformat für Filmliebhaber, die das in entsprechender Umgebung schauen. Wenn man sich das Mastering aktueller Filme anschaut, erkennt man auch, dass Hollywood keine Lust hat daran etwas zu ändern. Weil die Filmindustrie das nicht mehr grundsätzlich ändert, werden halt "Workarounds" entwickelt und angeboten. Für helle Räume gibt es ansonsten SDR, was man "wunderbar" aufhellen kann [Beitrag von Jogitronic am 20. Nov 2025, 00:02 bearbeitet] |
||||||
|
fakeframe
Stammgast |
#5295
erstellt: 20. Nov 2025, 00:33
|
|||||
|
Konserven entweder von Fernsehen, Blu-Rays oder Streams sind auch meine einzige Quelle. HDR wurde seit dem Einsatz in Handys mit knalligen Bildern verwechselt. Zwar kann man eben auch sehr helle Helligkeitsstufen darstellen, was durch einen hohen Dynamikumfang möglich ist. Zweck sollte aber sein, (gleichzeitig) sehr dunkle als auch sehr helle Details darstellen zu können, damit Details nicht um Dunkeln absaufen und Details im Hellen überstrahlt werden. Die Bilder meiner ersten Digitalkamera hatten noch das Problem, dass je nach Belichtung und Empfindlichkeit bei Gegenlicht entweder Details vom Himmel völlig überstrahlt wurden, damit noch Details vom Vordergrund erkennbar waren oder zur Darstellung eines erkennbaren Himmels der Vordergrund völlig abgedunkelt erschien. HDR ermöglicht nun, Details im Dunkeln und im Hellen abbilden zu können. So sollte HDR auch im Film angewandt werden. Das heißt aber nicht, dass man Filme stockfinster produzieren muss, genauso wenig, knallige Bilder erzeugen zu müssen, weil das irgendwie mit HDR zu tun haben soll. Beides ist natürlich im Sinne des Regisseurs weiter erlaubt, zumal nun Details im Gegensatz zu einem simplen Dynamikmodus eines Fernsehers in sehr hellen Bildbereichen nicht mehr überstrahlt werden müssen und dunkle Filmbilder dank OLED erzeugt werden können, ohne dass diese im Dunkeln völlig absaufen. [Beitrag von fakeframe am 20. Nov 2025, 00:35 bearbeitet] |
||||||
|
Jogitronic
Inventar |
#5296
erstellt: 20. Nov 2025, 08:00
|
|||||
|
RTINGS führt neue Test Kriterien ein [Beitrag von Jogitronic am 20. Nov 2025, 08:06 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5297
erstellt: 20. Nov 2025, 15:12
|
|||||
|
Hi,
Meine Test-Erfahrung ist ebenfalls, dass der 1080 Mist (DVB) derartig totkomprimiert ist, dass er schlechter als das 720 vom satellit rüberkommt ... Müll wohin du auch schaust ... gruß seifenchef |
||||||
|
seifenchef
Inventar |
#5298
erstellt: 20. Nov 2025, 15:22
|
|||||
|
Hi,
Das ist falsch. Mit dem Overscan hat das prinzipiell nichts zu tun. Der 'Umstieg' auf 720 horizontal - gleich für NTSC und PAL kam durch die digitalen Videorecorder, im Consumer wie im Profibereich, weil man so problemlos (ohne große Mehrkosten) Maschinen produzieren konnte, die beide Systeme beherrschen! Weil: 720 x 480 x 30 = 10 368 000 720 x 576 x 25 = 10 368 000 Das heißt die Datenmenge war nun gleichgemacht, software musste nur die 'Pakete' etwas ummodeln... ... bei DV waren es dann bspw. 12 Magentvideospuren pro Bild für PAL und 10 Magnetvideospuren für NTSC ... ... da Amiland der globale Hegemon ist, hat PAL eben dabei leicht an horizontaler Auflösung verloren (von 768 auf 720) NTSC hat gewonnen - von 640 auf 720 ... gruß seifenchef [Beitrag von seifenchef am 20. Nov 2025, 15:23 bearbeitet] |
||||||
|
AusdemOff
Inventar |
#5299
erstellt: 20. Nov 2025, 22:12
|
|||||
|
Sei bitte so freundlich und zitiere richtig. Nur der Satz: "Ja, im Overscan. Diese Funktion besaßen die meisten Röhren-TVs aber gar nicht. Offiziell nutzbar waren nur die 720 Bildpunkte horizontal." stammt von mir. PAL gabe es in vielen Ausprägungen. Vgl. hierzu PAL - Wiki. Das mit dem DV-System ist zwar rtichtig, streng genommen war dieses Videoaufzeichnungssystem aber nicht mehr normkonform. Im DV-System gibt es noch einige andere Ungereimtheiten. Das mit den USA stimmt so auch nicht. Verglich man die damaligen Weltkarten fiel ganz schnell auf das es mehr Länder mit PAL gab, als mit NTSC. Nebenbei noch so ein Exot wie SECAM Ost und West. Heute teilt sich die Welt in 50 und 60 (59,94) Hz auf. Da die Auflösungen weltweit mittlerweile identisch sind hat, zumindest auf dem Papier, die 60 Hz-Welt das bessere Bild. Deine Erfahrungen mit DVB-T2, hier wird immerhin 1080p/50 gesendet, können visuell zwar stimmen, kommen aber nicht von der Datenreduktion. Ausgangsmaterial ist nunmal leider entweder 1080p/24, 1080p/25 und auch 1080i/25 sowie 720p/50. Alles Systeme die in der Bildqualität unterhalb von 1080p/50 liegen. Es muss also, bevor es auf den Sender geht, das Signal erstmal aufgeblasen werden.Und dann gleich nochmal, da ich vermute das du einen 4k-TV verwendest. Es kann also nicht besser werden. |
||||||
|
fakeframe
Stammgast |
#5300
erstellt: 21. Nov 2025, 00:31
|
|||||
|
Ich finde selbst die Internetstreams mit geringer Bitrate schärfer als das, was ich über DVB-C sehe. Einige ARD Sender senden mittlerweile in nativem Full HD, sofern das Quellmaterial in 1080i/p nativ vorliegt (gilt nicht für die ZDF Sender). Aber das kommt auch auf das Quellmaterial an. Bewegungen wirken natürlich öfters verpixelt durch die niedrige Bitrate. Aber der Schärfegewinn von 1080i/p ist sichtbar. 720p ist eben nur ein kleinerer Sprung von 576p. DVB-T2 hat zumindest gegenüber den Internetstreams der ÖR Sender eine höhere Bitrate. Ob sie auch natives 1080i/p Material sofern vorhanden durchgeben, weiß ich mangels Empfang nicht, ist aber wahrscheinlich. [Beitrag von fakeframe am 21. Nov 2025, 00:41 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5301
erstellt: 21. Nov 2025, 14:30
|
|||||
Eben. Und dieser Satz ist falsch. Overscan im klass. Sinn war wohl nur ein Theater was den rundgelutschten Bildröhren geschuldet war ... o.s.ä. Nochmal anders: 4:3 NTSC (Netto): 640 x 480 = 307 tsd Pixel (daher stammt logischerweise auch die erste Computerauflösung VGA ) 4:3 PAL (Netto): 768 x 576 = 442 tsd Pixel (ohne vertikale Austastlücke, mit kommt man dann erst, Brutto quasi, auf die bekannten Zahlen 525 und 625 Zeilen ...) Und diesen fast 50% Unterschied hat auch jeder Freak gesehen ! gruß seifenchef |
||||||
|
seifenchef
Inventar |
#5302
erstellt: 21. Nov 2025, 14:35
|
|||||
Es stimmt eben haargenau, weil die USA - wie ich geschrieben habe - der globale Hegemon sind. Es interessiert nicht wenn die anderen Milliarden mal mehr sind .... gruß seifenchef |
||||||
|
seifenchef
Inventar |
#5303
erstellt: 21. Nov 2025, 14:57
|
|||||
|
Hi,
Wollen wir etwas philosophieren? Streng genommen ist die Bezeichnung HDR (High Dynamic Range) irreführend bzw. falsch. Den Umfang der geleisteten Dynamikübertragung (Hell-Dunkel) bestimmt zunächst die Kamera. Wie Du selbst erlebt hast, haben diese erst in den letzten - sagen wir 15 jahren - den Film diesbezüglich überholt. Dieser Dynamikbereich wird in Blenden bzw. in der Drucktechnik mit Dichten angegeben. Erste Videkameras hatten 4 bis 6 Blenden Kontrastumfang - alles darunter oder darüber ist abgesoffen oder ausgebrannt - meist beides gleichzeitig in einem Bild feststellbar ! Der Film hatte 10 Blenden (3 Dichten oder 10 hoch3) und heute gehen die dig. Kameras in Richtung 20 Blenden (TOP-End im 6 stelligen Preisbereich oder so - genau weiß ich es nicht aus dem Stehgreif)(ARRI ist wohl bei 17 Blenden jetzt) Eine ganz andere Frage ist nun, wie dieses Signal quantisiert wird ! ! Es ist von der Werbung eingetrichterter Unsinn, dass die Quantisierungstiefe etwas mit dem übertragbaren Kontrast zu tun hätte ! Nur die Abstufung ist eben feiner, aber wer braucht die? Niemand, da viele Artefakte bei MPEG (Paint effekte bspw. bei auf und abblenden etc) durch zu geringe Übertragung an DCT (JPEG) -Informationen zustande kommt. M.E.n. ist eine 10/12/14/16 Bit Quantisierung für den Endverbraucher ziemlicher Unsinn und nur für die Produktion über viele Prozesstufen sinnvoll. Es verschlechtert das Kosten-Nutzen-Verhältnis des Gesamtsignals unverhältnismässig zum Nutzen, denn alle Dateien werden um 25% größer. Logisch wenn 10 statt 8 Bit übertragen werden. Dafür wird dann die Kompressionsstufe hochgedreht, Hauptsache der unscharfe Mist ist dann 'HDR' PS: Sorry: Hauptsache der unscharfe Ruckel-Mist ist dann 'HDR' Aber der Mensch ist mathefern und glaubensnah. Einstein: ... zwei Dinge sind unendlich ... gruß seifenchef [Beitrag von seifenchef am 21. Nov 2025, 16:05 bearbeitet] |
||||||
|
AusdemOff
Inventar |
#5304
erstellt: 21. Nov 2025, 15:36
|
|||||
Das könnte man wohl meinen, ist aber ebenso falsch. Problem waren nicht die Röhren, sondern die Elektronik. Die hatte nämlich aufgrund oftmals zu billiger Entwürfe so ihre Problemchen. Insbesondere einige Einschwingvorgänge dauerten hier zu lange, bzw "rotzten" in die ersten Bildzeilen hinein. Aber, was soll's. Ist lange her. |
||||||
|
seifenchef
Inventar |
#5305
erstellt: 21. Nov 2025, 16:07
|
|||||
Einverstanden. gruß seifenchef |
||||||
|
AusdemOff
Inventar |
#5306
erstellt: 21. Nov 2025, 16:27
|
|||||
Das mag im wirtschaftlichen oder gar politischen Bereich stimmen. Nicht aber in der TV-Technik. |
||||||
|
AusdemOff
Inventar |
#5307
erstellt: 21. Nov 2025, 16:52
|
|||||
|
[quote="seifenchef (Beitrag #5303)"]Streng genommen ist die Bezeichnung HDR (High Dynamic Range) irreführend bzw. falsch. Den Umfang der geleisteten Dynamikübertragung (Hell-Dunkel) bestimmt zunächst die Kamera. Wie Du selbst erlebt hast, haben diese erst in den letzten - sagen wir 15 jahren - den Film diesbezüglich überholt. Dieser Dynamikbereich wird in Blenden bzw. in der Drucktechnik mit Dichten angegeben. Erste Videkameras hatten 4 bis 6 Blenden Kontrastumfang - alles darunter oder darüber ist abgesoffen oder ausgebrannt - meist beides gleichzeitig in einem Bild feststellbar ! Der Film hatte 10 Blenden (3 Dichten oder 10 hoch3) und heute gehen die dig. Kameras in Richtung 20 Blenden (TOP-End im 6 stelligen Preisbereich oder so - genau weiß ich es nicht aus dem Stehgreif)(ARRI ist wohl bei 17 Blenden jetzt) Eine ganz andere Frage ist nun, wie dieses Signal quantisiert wird !! Es ist von der Werbung eingetrichterter Unsinn, dass die Quantisierungstiefe etwas mit dem übertragbaren Kontrast zu tun hätte ! Nur die Abstufung ist eben feiner, aber wer braucht die? Niemand, da viele Artefakte bei MPEG (Paint effekte bspw. bei auf und abblenden etc) durch zu geringe Übertragung an DCT (JPEG) -Informationen zustande kommt. M.E.n. ist eine 10/12/14/16 Bit Quantisierung für den Endverbraucher ziemlicher Unsinn und nur für die Produktion über viele Prozesstufen sinnvoll.[/quote]Eine Arri liegt nicht im sechsstelligen Bereich. Aber egal. Wäre einmal interessant, weshalb du denkst das der Begriff HDR irreführend oder sogar falsch wäre. Sicher sind 12 oder mehr Bit etwas übertrieben. Der Begriff Banding ist dir aber bekannt? 8 Bit sind so gerade an der Grenze dessen um ein TV-Signal zu übertragen. HDR braucht 10 bit. Ansonsten wird es Essig mit dem erweiterten Farbraum und auch mit den flachen Gammakurven in den Highlights. Das könnte man sich dann bei 8 Bit sparen. Tatsächlich geht es darum den, völlig richtig, Blendenumfang heutiger Kameras auch über den "Äther" zu bekommen. Hier muss ich nochmals zitieren um zu verdeutlichen wie nachfolgende Aussage nicht nur verworren sondern nah am Unsinn ist: [/quote] Nur die Abstufung ist eben feiner, aber wer braucht die? Niemand, da viele Artefakte bei MPEG (Paint effekte bspw. bei auf und abblenden etc) durch zu geringe Übertragung an DCT (JPEG) -Informationen zustande kommt. [quote] DCT ist eine Vorstufe zur Komprimierung und völlig verlustfrei (bis auf ein paar Rundungsfehler). Dies gilt für MPEG und JPEG. Erst in den weiteren Stufen der eigentlichen Datenreduktion treten Verluste auf. Die genannten Paint- und Überblendartefakte kommen eben weitestgehend von der ungeügenden Quantisierungstiefe, insbesondere in dunklen und hellen Bereichen zu stande. Ausgenommen bei HLG, hier ist die Gammakurve identisch zur BT.709, arbeiten alle HDR-Formate in dunklen und hellen Bereichen mit einer abgeflachten Gammakurve. Je flacher diue Kurve, desto weniger Unterschiede gäbe es bei einer 8 Bit Quantisierung. Um in diesen Bereichen noch ein Signal zu bekommen in dem man Unterschiede sehen kann, bedarf es mindestens 10 Bit Quantisierungstiefe. 12 Bit wäre ideal, aber, wie schon von dir gesagt, nicht mehr Bitraten tauglich im Sinne einer ökonomischen Übertragung. Ach ja, die Mathematik. Das 2 bit mehr 25 % mehr Datenrate bedeuten gilt aber nur für unkomprimierte Datenströme oder -files. Sobald es über die Kompression geht ist der Einfluss von 2 Bit schon wieder fast vernachlässigbar. Dafür muss nicht die Kompression nach obren gedreht werden. So einfach ist die Mathematik dann auch wieder nicht. Wenn dir 4k nicht wie 4k vorkommt, dann hat das andere Gründe. Shannon/Nyquist lassen grüßen. Mit einer nativen 4k-Kamera lässt sich eben nur bedingt ein 4k-Signal erzeugen. Aber an der Sztelle wirfst du HSR und Auflösung in einen Topf. Dies sind aber zwei unterschiedliche Dinge. Schließlich geht auch HDR mit HD. Und, ach Gott, 1080p/24 ("Ruckelschrott") geht auch mit HDR. [Beitrag von AusdemOff am 21. Nov 2025, 17:04 bearbeitet] |
||||||
|
Jogitronic
Inventar |
#5308
erstellt: 21. Nov 2025, 17:17
|
|||||
|
Es wird wohl Zeit für einen HDR Thread ... |
||||||
|
seifenchef
Inventar |
#5309
erstellt: 21. Nov 2025, 17:29
|
|||||
Ich schnall Deine Argumentation nicht. Die Tatsache dass die PAL Auflösung verloren hat, NTSC dagegen gewonnen, bestätigt doch lediglich, dass die 'TV-Technik' auch nur ein Feld im sozialdarwinistischen (irrationalen) Kampf des Lebens ist. gruß seifenchef |
||||||
|
seifenchef
Inventar |
#5310
erstellt: 21. Nov 2025, 17:36
|
|||||
Was ist denn das nun für eine Mathematik? Von Dir erfunden? Wenn der unkomprimierte File 25% größer ist, muss ich wieder 25% mehr komprimieren! (um auf die gleiche Datenrate wie zuvor zu kommen) Was ihr vermutlich an allen Ecken und Enden ständig macht, weil ihr dem Geld Rechnung tragen müsst (o.s.ä.) und erntet dafür, wie hier in den letzten Beiträgen mehrere Foristen nachzulesen, die Kritik das alles und überall nur noch unscharfer 'Müll' ist auf modernen großen Bildwiedergabegeräten! äääähhh: ich setz noch einen drauf: ruckelnder unscharfer Müll SCNRgruß seifenchef [Beitrag von seifenchef am 21. Nov 2025, 17:37 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5311
erstellt: 21. Nov 2025, 17:57
|
|||||
Wenn DCT (intraframe) verlustfrei komprimieren würde, hätte man MPEG (interframe) nicht obendrauf setzen müssen! WIKI: ... DCT ist eine Transformation der numerischen Mathematik. Sie wird z. B. für die verlustbehaftete Kompression von Audio- und Bilddaten verwendet. Für Bilddaten wird sie beispielsweise beim Kompressionsverfahren JPEG verwendet
Lustig. Die von mir genannten starken Paint-effekte kamen in der erlebten Realität exakt mit der DVD (ich hatte als erste DVD BJÖRK) wo mir diese Fehler, bei sonst sehr guter/damals noch ungewohnter Qualität, zu Gesicht gekommen sind ! ( hab das sofort als neue Fehlerart erkannt, quasi) ( weder mein Hi8 , ja noch nicht einmal VHS hatte so etwas ...) Und dies liegt nicht an 8 Bit Quantisierung, denn die hatten die DV-basierten Kompressionsverfahren ja auch, sondern an der zusätzlichen GOP-Kompression, die ja das Ziel hatte die DCT-Information extrem weiter einzudampfen, und dadurch kommen die Painteffekte bei den Auf/Ab/Überblendungen. (MPEG kann Ortsveränderungen sehr gut komprimieren (verschieben der Blöcke), für die zeitliche Änderung (Helligkeitsverlauf in der Zeit) dagegen ist weiter nur DCT im Stande, und das ist um Potenzen eingestampft, quasi nur noch rudimentär vorhanden, in MPEG) Naja, die Welt des Menschen ist die Welt der Esoterik .... gruß seifenchef [Beitrag von seifenchef am 21. Nov 2025, 19:24 bearbeitet] |
||||||
|
seifenchef
Inventar |
#5312
erstellt: 21. Nov 2025, 19:37
|
|||||
Ja, mach mal. Ein Kinovorführer auf slashcam: "Hinterher weiß man immer mehr. Der Großteil an technischem Fortschritt, was Bildqualität betrifft, kommt in sehr kleinen Schritten und betrifft zunehmend das Ende der Kette: das Display. HDR -Filme haben, wie sich erweist, gar keinen signifikanten Mehrwert gegenüber SDR-Filmen." Für mich mathematisch/physikalisch logisch. Irrationaler Kampf um Alleinstellungsmerkmale (die keine sind) gruß seifenchef |
||||||
|
AusdemOff
Inventar |
#5313
erstellt: 21. Nov 2025, 23:44
|
|||||
Um dir das zu erklären müsste man weiter in die Technik der Datenkompression einsteigen. Nein, das ist nicht von mir erfunden. |
||||||
|
AusdemOff
Inventar |
#5314
erstellt: 21. Nov 2025, 23:49
|
|||||
Wie Wiki schon richtig bemerkte, eine DCT ist eine numerische Transformation und keine Kompression. Man sprach damals von DCT basierter Kompression (MPEG) um diese von der Wavelet basierten Kompression (JPEG) zu unterscheiden. |
||||||
|
AusdemOff
Inventar |
#5315
erstellt: 21. Nov 2025, 23:53
|
|||||
Wo hast du denn das alles her? Selbst ausgedacht? Wenn ja, lies dich bitte in die Technik der Datenkompression (wieder) ein. Das, was du hier schreibst ist schlicht hahnebüchener Unsinn. |
||||||
| ||||||
|
|
||||
Gehe zu Seite: |vorherige| Erste .. 70 . 80 . 90 . 100 . 102 103 104 105 106 107 108 Letzte |nächste|
| Das könnte Dich auch interessieren: |
|
LG65C1 Xbox Series X 120 FPS Peeeeter am 16.12.2021 – Letzte Antwort am 24.12.2021 – 7 Beiträge |
|
PS5 - OLED VRR Bug bei 40 fps ? Dualis am 16.02.2023 – Letzte Antwort am 20.02.2023 – 3 Beiträge |
|
C1 und VRR Bug mit XBOX Series X ? Dualis am 19.05.2022 – Letzte Antwort am 03.06.2022 – 19 Beiträge |
|
55EC930V vs 55EA970V vs 55EA975V alovera am 13.10.2015 – Letzte Antwort am 14.10.2015 – 4 Beiträge |
|
LG OLED 2020 X: 4K 48-77"/8K 65-88"|α9III |HGiG |G-sync+FreeSync | 120Hz-BFI| DV IQ celle am 26.09.2019 – Letzte Antwort am 05.11.2024 – 8885 Beiträge |
|
Anzeigen der vollständigen Signalinformationen B6 annonym am 17.06.2017 – Letzte Antwort am 22.06.2021 – 12 Beiträge |
|
LG CX 48 Aufnahme Bud122 am 30.08.2020 – Letzte Antwort am 08.12.2020 – 13 Beiträge |
|
LG OLED 65C97LA 50 hz 60 hz 100 hz oder 120 hz Panel ! fixgdf am 21.10.2019 – Letzte Antwort am 21.10.2019 – 4 Beiträge |
|
hat BFI Auswirkung auf die Lebensdauer von Oled. (65B8) ninja-shuriken am 19.12.2020 – Letzte Antwort am 19.12.2020 – 2 Beiträge |
|
LG B9 HDR bei 60 Hz oder 120 Hz? Bongobob am 08.12.2019 – Letzte Antwort am 14.11.2020 – 11 Beiträge |
Anzeige
Produkte in diesem Thread
Aktuelle Aktion
Top 10 Threads in LG der letzten 7 Tage
- Umschalten von TV auf Radio
- LG OLED TVs 2022 | A2 / B2 / C2 / G2 / Z2 Einstellungsthread
- LG G1 verliert sporadisch Sender
- OLED 65G29LA - Benutzervereinbarung kann nicht geladen werden
- Hilfe Energiesparmodus bei LG OLED55G119LA nicht dargestellt
- Problem: LG Oled 65 - Lässt sich nicht mehr einschalten?
- Schnelltaste für Tonspur und Untertitel
- LG OLED 65C19LA: Bildschirm aus Funktion auf eine Taste legen möglich?
- LG Content Store und Apps außer Browser gehen nicht
- LG C9 , Magic Remote AN-MR19BA
Top 10 Threads in LG der letzten 50 Tage
- Umschalten von TV auf Radio
- LG OLED TVs 2022 | A2 / B2 / C2 / G2 / Z2 Einstellungsthread
- LG G1 verliert sporadisch Sender
- OLED 65G29LA - Benutzervereinbarung kann nicht geladen werden
- Hilfe Energiesparmodus bei LG OLED55G119LA nicht dargestellt
- Problem: LG Oled 65 - Lässt sich nicht mehr einschalten?
- Schnelltaste für Tonspur und Untertitel
- LG OLED 65C19LA: Bildschirm aus Funktion auf eine Taste legen möglich?
- LG Content Store und Apps außer Browser gehen nicht
- LG C9 , Magic Remote AN-MR19BA
Top 10 Suchanfragen
Forumsstatistik
- Registrierte Mitglieder930.603 ( Heute: 1 )
- Neuestes MitgliedMax100007
- Gesamtzahl an Themen1.563.302
- Gesamtzahl an Beiträgen21.821.466

Filme kann man ja auch immer noch in 3D kaufen.








