Gehe zu Seite: |vorherige| Erste .. 70 . 80 . 90 . 100 . 103 104 105 106 107 108 Letzte |nächste|

Bewegungsdarstellung - MCFI, BFI, Rolling Scan, 24 FPS vs 48/50/60/120/240 FPS

+A -A
Autor
Beitrag
AusdemOff
Inventar
#5315 erstellt: 21. Nov 2025, 23:53

seifenchef (Beitrag #5311) schrieb:

Und dies liegt nicht an 8 Bit Quantisierung, denn die hatten die DV-basierten Kompressionsverfahren ja auch, sondern an der zusätzlichen GOP-Kompression, die ja das Ziel hatte die DCT-Information extrem weiter einzudampfen, und dadurch kommen die Painteffekte bei den Auf/Ab/Überblendungen. (MPEG kann Ortsveränderungen sehr gut komprimieren (verschieben der Blöcke), für die zeitliche Änderung (Helligkeitsverlauf in der Zeit) dagegen ist weiter nur DCT im Stande, und das ist um Potenzen eingestampft, quasi nur noch rudimentär vorhanden, in MPEG)

Wo hast du denn das alles her? Selbst ausgedacht? Wenn ja, lies dich bitte in die Technik der Datenkompression (wieder) ein. Das, was du hier schreibst ist schlicht hahnebüchener Unsinn.
AusdemOff
Inventar
#5316 erstellt: 22. Nov 2025, 00:00

seifenchef (Beitrag #5312) schrieb:

Jogitronic (Beitrag #5308) schrieb:
Es wird wohl Zeit für einen HDR Thread ... ;)


Ja, mach mal.

"Der Großteil an technischem Fortschritt, was Bildqualität betrifft, kommt in sehr kleinen Schritten und betrifft zunehmend das Ende der Kette: das Display. HDR -Filme haben, wie sich erweist, gar keinen signifikanten Mehrwert gegenüber SDR-Filmen."

Für mich mathematisch/physikalisch logisch.
Irrationaler Kampf um Alleinstellungsmerkmale (die keine sind)

Im Sinne Der Story hat HDR in der Tat keinen signifikanten Mehrwert. Eine Geschichte kann man auch ohne HDR erzählen. Dies gilt aber auch für die Farbe.

ERines sollte man aber schon im Hinterkopf behalten:
Die Filmleute mussten erst gar nicht mit HDR werben, da dies schon seit langen Jahren Bestandteil der Hollywoodproduktionen ist.
Und nein, der technische fortschritt betrifft nicht vorwiegend das Ende, sprich das Display. Auch die Kameras wurden verbessert, und dies in allen Aspekten. Das hat nichts mit Alleinstellungsmerkmalen zu tun.
Aragon70
Inventar
#5317 erstellt: 22. Nov 2025, 01:58

Jogitronic (Beitrag #5286) schrieb:

Die Lösung für all diese Probleme wäre VRR


Mit VRR funktioniert keine Zwischenbildberechnung


Frame Generation auf den Nvidia RTX 40x0/50x0 Karten geht auch mit GSync/VRR. Nur die Varianten in den TVs können das (noch) nicht.

Die FI verwendet bei den RTX Karten 2 frühere Frames und berechnet daraus einen neuen Frame der zeitlich 50% von dem entfernt ist was der Zeitabstand dieser letzten beiden Frames war. Dürfte eigentlich nicht soviel komplizierter sein als die FIs bei gleichmässigen FPS, weils der FI egal sein sollte wie die globale Framerate ist, er muß ja nur diese beiden letzten Frames beachten.


Jogitronic (Beitrag #5286) schrieb:


48 fps


Das würde dann sicher flimmern. Also wie wird das Problem gelöst?
Man könnte das wie üblich verdoppeln und das Display läuft dann mit 96 Hz?


Warum sollte das flimmern? Es wird jeder Frame doppelt angezeigt wenn es 24 fps sind und wenn es 48 fps sind dann nicht. Dazu bräuchte man nur 48 Hz.

Auf OLEDs und LCDs ist es egal wieviel Hz es sind, da flimmert eh nichts, wenn man nicht gerade BFI dazwischen schaltet.

Naja, mir ist das sowieso egal. Wenn diese Technik kommt werde ich sie abschalten und die FI mit maximaler Einstellung verwenden. 48 fps sind mir zu wenig,
seifenchef
Inventar
#5318 erstellt: 22. Nov 2025, 14:02

AusdemOff (Beitrag #5315) schrieb:
Wo hast du denn das alles her? Selbst ausgedacht? Wenn ja, lies dich bitte in die Technik der Datenkompression (wieder) ein. Das, was du hier schreibst ist schlicht hahnebüchener Unsinn.


Was ihr macht ist hahnebüchener Unsinn, unendlich viel Geld ausgeben für niedrigauflösendes, niedrigdatenrate, niedrigframerate-zeugs!

Was nicht großbildtauglich ist!

Und ich kann sehr wohl aus sichtbaren Bildfehlern auf ihre Ursachen schließen, dafür hab ich lange genug in Medien gearbeitet.

Und ja, meine allererste DVD - damals Björk Musikvideos - und ich habe ich diesen neuen Fehler, den kein System bis dahin hatte, bei sonst 'geiler-neuer-Digitalschärfe' eben sofort gesehen ! (alle Blenden hatten und haben nun Painteffekte - das ist bis heute Standard!) Und das liegt nicht an der 8Bit Quantisierung - denn die hatten alle DV Systeme auch - und keine Painteffekte in Blenden durch zu geringen DCT-Anteil ...

seifenchef


[Beitrag von hgdo am 26. Nov 2025, 17:33 bearbeitet]
seifenchef
Inventar
#5319 erstellt: 22. Nov 2025, 15:12
Die DCT Information allein kann Helligkeits/Farb-veränderungen von Bild zu Bild wiedergeben.
Ziel von MPEG war es, diese 'Datenmasse' extrem zu reduzieren, durch Motion-Vektor Daten, die einfach Pixelblöcke verschieben, extrem Daten sparen dabei, aber keine Helligkeits/Farbunterschiede von Bild zu Bild dabei berücksichtigen.

Deshalb muss immer noch ein kleiner Teil DCT dazugeliefert werden! Sieht man sehr gut im Bild ! Sonst gänge das gar nicht!
Eingestampfte DCT bei den B-Frames ca um den Faktor 10, bei den P-Frames ca um den Faktor 3 !
Dort kommen die meisten Artefakte her, nicht von der 8 Bit-Quantisierung!
Es ist nun Tatsache, dass neue formen von Artefakten heute eben Standard sind.

Und dies wird immer weiter zunehmen, so wie eben 'AusdemOff' hier mal schrieb - vor einiger Zeit - dass Kompression von 1:200 oder 300 durchaus machbar wäre. (was ich als Qualitätsfreak ablehne)

Im Bild (aus einer Software die ich mal hatte, damals noch MPEG2 - es geht ja nur ums Prinzip) sieht man unten sehr schön die extreme Einsparung durch das Ersetzen von DCT durch Motion/Vektor Information.
Die sichtbaren Artefakte sind die Kehrseite der Medaille ....

GOP


[Beitrag von seifenchef am 22. Nov 2025, 15:16 bearbeitet]
seifenchef
Inventar
#5320 erstellt: 22. Nov 2025, 15:41
Hi, sry wir reden - so glaube ich - komplett aneinander vorbei ...


Jogitronic (Beitrag #5278) schrieb:

Denn nenne ich mal Quellen ...

"Zweimal gesendet" betraf die parallele Übertragung von SD und HD per Sattellit und hat nichts mit der Bildrate zu tun



Das interessiert mich überhaupt nicht, mit jedes Bild zweimal gesendet beziehe ich mich auf die TATSACHE dass die meisten Sendungen/Programme einfach nur 25p sind, und eben jedes Bild zweimal - um auf die 50 fps des ÖRs-Sendeformates zu kommen - gesendet wird.
Ganz einfach.
Ok - damit bin ich hier raus, da mir gar nicht klar ist um was es Dir geht.

gruß seifenchef


[Beitrag von seifenchef am 22. Nov 2025, 15:47 bearbeitet]
seifenchef
Inventar
#5321 erstellt: 22. Nov 2025, 15:46
[quote="Aragon70 (Beitrag #5317)"][Meine Erklärung - warum die TVs das noch nicht können: sie haben(nutzen) die Vektordaten nicht, und nur aus denen könnte man das effektiv erstellen

gruß seifenchef


[Beitrag von hgdo am 26. Nov 2025, 17:34 bearbeitet]
AusdemOff
Inventar
#5322 erstellt: 22. Nov 2025, 17:31
Ein abschließendes Wort zu den Kompressionseinlassungen: Ohne eine DCT funktioniert keine Datenkompression in der Videotechnik. Sie ist die Vorstufe zur eigentlichen compression engine.

Um das Thema weiter zu führen, bedürfgte es eines eigenen Threads der ganz schnell an Interesse verlieren würde, da er erstmal in ein Tutorial ausufern würde wie video co,pression überhaupt funktioniert. So wie hier on seifenchef skizzietrt funktioniert sie nicht. Es ist auch ganz schwer Artefakte im Bild auf ein spezielles Tool der Kompression zurück zu führen. Das würde nur mit einem Direktvergleich mit/ohne funktionieren.

Spannend ist auch das sich seifenchef so auf die Quantisierungstiefe konzentriert nur um Datenrate für mehr Frames bereit zu stellen. Er stellt sich mit dieser Meinung gegen die komplette Industrie und das Grundwissen der Signaltheorie. Vor so viel Mut muss man erstmal den Hut ziehen. Das ändert aber nichts an der Tatsache das moderne Videosysteme mit mindestens 10 Bit arbeiten. Was er auch nicht mit ins Kalkül zieht ist der Vorteil einer höheren Quantisierungstiefe eines rauschfreieren Bildes. Rauschen ist der Tod jedweder Kompression. Verrauschte Bilder sind bitte auch nicht dem dümmlichen Filmkorn zu verwechseln.

Zum Thema GSync/VRR: im Prinzip sind das technische Krüken. Bereits das angelieferte Signal beinhaltet interpolierte Bilder. Diese nochmals zu interpolieren aufgrund der gelieferten Vektordaten würde gehen. Ja, im MPEG-Datenstrom gibt es Bewegungsvektoren. Ob das Interpolieren bereits interpolierter Bilder nun wirklich Sinn macht, na ja.
seifenchef
Inventar
#5323 erstellt: 24. Nov 2025, 13:19
An Süffisanz kaum zu überbieten:


AusdemOff (Beitrag #5276) schrieb:


Ach ja: "Sie haben es aber praktisch nie genutzt! (720p)" Falls es zwischenzeiztlich nicht geändert wurde, restlos alle Sendungen der heute-Redaktion werden in 720p produziert und auch gesendet.


(Du meinst 'real 50p' vermutlich)

Der Tatort ruckelt sich tot und die Präsentation der gerade ablaufenden wirklichen Verbrechen dieser Menschheit kommt geschmeidig gekleidet als Banker daher ... oder so ähnlich .... köstlich, köstlich

gruß seifenchef
seifenchef
Inventar
#5324 erstellt: 24. Nov 2025, 13:36

AusdemOff (Beitrag #5322) schrieb:
Ein abschließendes Wort zu den Kompressionseinlassungen: Ohne eine DCT funktioniert keine Datenkompression in der Videotechnik. Sie ist die Vorstufe zur eigentlichen compression engine.


Mit Verlaub.
Das ist reinste Esoterik!

Das ohne DCT nichts geht - Logisch. Helligkeits- und Farbwerte, lebstredend also auch ihre Änderungen, können nur durch DCT komprimiert (natürlich verlustbehaftet - und nicht wie Du behauptest verlustfrei) werden.

DCT ist intraframe-komprimierung und MPEG ist die dann noch obendrauf gepackte interframe-komprimierung.

... ich glaube Du hast sehr wenig Ahnung davon ... über die benötigten Mehr-Bits- im untersten und obersten Arbeitsraum der Kameras könnten wir auch noch reden - hast Du jemals selbst Bildbearbeitung (bspw. DSLR RAW) gemacht?

Dann wüsstest Du, dass man sehr gut - um an den Arbeitsbereich/Verhalten von analogem Film zu kommen, oben und unten viele Bits (Quantisierungstiefe) braucht um das Knee von Film nachzubilden.

Hinweis: der Film hat einen natürlichen degressiven/ nichtlinearen 'Auslauf' an seinem unteren und oberen Arbeitsbereich, dies nachzubilden ist für die elektr. Kameras schwierig, und bedarf mehrerer Bits der Quantisierung, die dann für den linearen Teil (Hauptteil, sagen wir von 10 bis 90% der Helligkeitswerte) verloren gehen...

Es ist also super wenn man das im RAW hat (12, 14, 16 Bit) aber daraus kann man ein perfektes 8Bit-Jpeg machen, wo alle staunen, ohne dass man da 10 Bit ans Ende durchreichen muss.... alles nur Kommerz-Kino ! !

Mir wirfst Du vor mich gegen die Industrie zu stellen.
Ja, als Qualitätsfreak fresse ich nicht einfach was die mir hinwerfen!
... nur wiel sie irgendetwas eben gerade 'man möchte sagen zufällig' können und das nun verkaufen wollen ....

... der Consumer ist Sklave der Industrie ... ohne Sinn und Verstand ... einfach nur in der Herde mitlaufend ...

gruß seifenchef


[Beitrag von seifenchef am 24. Nov 2025, 14:07 bearbeitet]
AusdemOff
Inventar
#5325 erstellt: 24. Nov 2025, 14:21

seifenchef (Beitrag #5324) schrieb:
(...)

Was ist bei dir bloß los?

Das ohne DCT nichts geht - Logisch. Helligkeits- und Farbwerte, selbstredend also auch ihre Änderungen, können nur durch DCT komprimiert (natürlich verlustbehaftet - und nicht wie Du behauptest verlustfrei) werden.

Wie der Name schon sagt: DCT bedeutet Diskrete Cosinus Transformation. Wikipedia hilft dir hier weiter. Ich will dir jetzt nicht die einzelnen Stufen einer Videokompression darlegen. Was du hier postulierst geht an der Realität vorbei.


DCT ist intraframe-komprimierung und MPEG ist die dann noch obendrauf gepackte interframe-komprimierung.

MPEG ist eine Toolbox. Sie beinhaltet inter- und intra frame compression. Es obliegt dem Designer auszuwählen welche Techniken zur Komprimierung zur Anwendung kommen.

... ich glaube Du hast sehr wenig Ahnung davon ... über die benötigten Mehr-Bits- im untersten und obersten Arbeitsraum der Kameras könnten wir auch noch reden - hast Du jemals selbst Bildbearbeitung (bspw. DSLR RAW) gemacht?

Dann wüsstest Du, dass man sehr gut - um an den Arbeitsbereich/Verhalten von analogem Film zu kommen, oben und unten viele Bits (Quantisierungstiefe) braucht um das Knee von Film nachzubilden.

Die Knee-Funktion muss man nicht nachbilden. Sie ist integraler Bestandteil einer jedweden Profikamera. Im wesentlichen geht es hier um den oberen Bereich der Gammakurve die man mittels Knee-Point und -Slope noch im Bereich des Übergangs des, sagen wir einmal linearen Bereichs der Gammakurve hin zu der Abflachung, noch ein wenig "tweaken" kann.


Hinweis: der Film hat einen natürlichen degressiven 'Auslauf' an seinem unteren und oberen Arbeitsbereich, dies nachzubilden ist für die elektr. Kameras schwierig, und bedarf mehrerer Bits der Quantisierung, die dann für den linearen Teil (Hauptteil, sagen wir von 10 bis 90% der Helligkeitswerte) verloren gehen...

Hattest du dich jemals, außerhalb der Konsumerwelt, mit Kameras beschäftigt? Seit mehr als 20 Jahren können mehr oder weniger alle Profikameras den Gammaverlauf des Films über simple Menüeinstellungen abrufen. Es gibt hier unterschiedliche Varianten im
Markt. Logisch, jede Filmemulsion verhielt sich anders. Hier wären folgende Implementationen zu nennen: Arri-log (Arri), V-log (Panasonic), s-log3 (Sony). Darüberhinaus gibt es noch mannigfaltige Film-Gamma-Einstellungen der Hersteller.

Die Quantisierung selbst verläuft in der elektronischen Welt linear, nicht logarithmisch. Hier gehen keine Bits verloren. Aber, falls du meinst, je flacher die Gammakurve, desto geringer die Unterschiede nach der Abtastung, dann liegst du richtig. Deshalb sind 8 Bit nicht mehr genug. HDR hat eine recht ähnliche Gammakurve wie der Film.
seifenchef
Inventar
#5326 erstellt: 24. Nov 2025, 16:39

AusdemOff (Beitrag #5325) schrieb:

Wie der Name schon sagt: DCT bedeutet Diskrete Cosinus Transformation. Wikipedia hilft dir hier weiter. Ich will dir jetzt nicht die einzelnen Stufen einer Videokompression darlegen. Was du hier postulierst geht an der Realität vorbei.


Aber Deine Esoterik nicht ? :


AusdemOff (Beitrag #5307) schrieb:

DCT ist eine Vorstufe zur Komprimierung und völlig verlustfrei (bis auf ein paar Rundungsfehler). Dies gilt für MPEG und JPEG.
Erst in den weiteren Stufen der eigentlichen Datenreduktion treten Verluste auf.


WIKI:

Im Bereich der verlustbehafteten Datenreduktion von Bildsignalen wie bei JPEG findet die DCT-II in einer zweidimensionalen Transformation Anwendung, weshalb umgangssprachlich unter der „DCT“ oder der FDCT für forward discrete cosine transform der Typ DCT-II verstanden wird....



DCT ist absolut verlustbehaftete ! Datenkompression, wäre sie nicht bei 5:1 bis 10:1 Intraframekompression an ihre absolute Grenze gestossen, hätte man auf die mit MotionVektor arbeitende Interframekompression gerne verzichtet !

Übrigens, ich habe nichts gegen 10 Bit Quantisierung beim Verbraucher, wenn man genügend Bandbreite hat ... auf einer UHD Scheibe bspw. ...

Aber vor diesem relativ geringem Gewinn, er wäre quasi das letzte Sahnehäubchen obendrauf, stehen:

1 eine hohe und vor allem nicht totkomprimierte Auflösung (quasi halbgefüllte Mogelpackungen sind die Realität!)
2 eine hohe, der Detailauflösung entsprechende zeitliche Auflösung FPS (Ruckelschrott bis max HD-Ready)
3 10 bit Quantisierung

Gemacht wird aber 10 bit Quantisierung bei gleichzeitigem totkomprimieren und Ruckelschrott!
Als Verkaufsargument! (Alleinstellungsmerkmal)

gruß
fakeframe
Stammgast
#5327 erstellt: 24. Nov 2025, 17:19
Mich würde mal der Vergleich zwischen einer komprimierten Aufnahme einer hochwertigen Filmkamera mit einer Bitrate einer UHD Blu-Ray und einer unkomprimierten Aufnahme derselben Kamera interessieren, um zu sehen, ob man einen erkennbaren Unterschied wegen der Kompression sehen kann. Leider besitze ich nicht mal eine Video Kamera. Heutzutage besitzt ja jeder ein Handy, das in die Hosentasche passt. Was die Sender jedenfalls ausstrahlen, ist besser geworden, aber bestimmt ist noch Luft nach oben. Videobeiträge z.B. der tagesschau sahen lange so aus, als stammten sie aus einem Youtube Kanal. Durch 4K und eine bessere Detailtreue sind die Bilder natürlicher geworden die letzten Jahre.
seifenchef
Inventar
#5328 erstellt: 24. Nov 2025, 17:48

AusdemOff (Beitrag #5325) schrieb:

Die Knee-Funktion muss man nicht nachbilden. Sie ist integraler Bestandteil einer jedweden Profikamera.

Die Quantisierung selbst verläuft in der elektronischen Welt linear,


Du merkst nichteinmal dass Du dir in einem Artikel selbst widersprichts.

Denn:
Die Nachbildung des intrinsischen Knee eines chemischen Filmes (oben und unten, also bei schwarz wie bei weiß), durch moderne Videokameras ist eben eine NACHBILDUNG (die relativ viele Quantisierungsbits schluckt) damit eben in diesem Bereich keine lineare Quantisierung stattfindet.



gruß seifenchef
seifenchef
Inventar
#5329 erstellt: 24. Nov 2025, 17:55

fakeframe (Beitrag #5327) schrieb:
...um zu sehen, ob man einen erkennbaren Unterschied wegen der Kompression sehen kann.


Hängt von Deinem 'Trainingsstand' und von Deiner relativen Bildgröße ab.

HD Ready 3 Bildbreiten,Full-HD 2 Bildbreiten, 4K 1 Bildbreite, sitzt Du weiter weg ist jede Vergleichsdiskussion nutzlos unnd beliebig esoterisch ...

gruß seifencchef
fakeframe
Stammgast
#5330 erstellt: 24. Nov 2025, 18:27
Also immerhin kann man mit einer ausreichend hohen Bitrate den Unterschied deutlich reduzieren, wenn man nicht zu nah am TV sitzt. Gilt dann weniger für Streaming und die TV-Sender.


Antwort KI bezüglich der Knee-Funktion:

"Die "Knie-Funktion" in der Videotechnik bezieht sich auf einen Bildbearbeitungseffekt zur Kontrastanpassung in dunkleren oder überbelichteten Bereichen. Sie komprimiert die Tonwerte in diesen Bereichen, um Details wieder sichtbar zu machen, indem die Kamerakennlinie an einem bestimmten Punkt abgeknickt wird (das sogenannte "Knee"). Im Gegensatz dazu steht die anatomische Funktion des Kniegelenks (menschliches Knie), die Beugung, Streckung und Drehung ermöglicht.

Knie-Funktion in der Videotechnik
Zweck: Der Kontrastumfang in der Aufnahme wird erweitert.

Funktionsweise:
Ein Teil der Bildinformationen, der über den Standard-Kontrastumfang hinausgeht, wird komprimiert.
Dabei wird die Kamerakennlinie an einem bestimmten Punkt, dem "Knee Point", abgeknickt, wodurch die hellen Bildanteile gedämpft und Details sichtbar gemacht werden, die sonst verloren gingen.
Die Steilheit des Abknickens wird als "Knee Slope" bezeichnet.
Einstellung: Die Werte für "Knee Point" und "Knee Slope" werden manuell eingestellt, um die Wirkung an den jeweiligen Bildinhalt anzupassen.
Alternative: Eine natürliche Darstellung mit großem Kontrastumfang wird besser durch High Dynamic Range (HDR) erzielt, das die "Knie-Funktion" überflüssig machen kann."


[Beitrag von fakeframe am 24. Nov 2025, 18:30 bearbeitet]
AusdemOff
Inventar
#5331 erstellt: 24. Nov 2025, 20:07

seifenchef (Beitrag #5328) schrieb:
Denn:
Die Nachbildung des intrinsischen Knee eines chemischen Filmes (oben und unten, also bei schwarz wie bei weiß), durch moderne Videokameras ist eben eine NACHBILDUNG (die relativ viele Quantisierungsbits schluckt) damit eben in diesem Bereich keine lineare Quantisierung stattfindet.

Kannst du das mit Quellangabe untermauern?
AusdemOff
Inventar
#5332 erstellt: 24. Nov 2025, 20:28

fakeframe (Beitrag #5327) schrieb:
Mich würde mal der Vergleich zwischen einer komprimierten Aufnahme einer hochwertigen Filmkamera mit einer Bitrate einer UHD Blu-Ray und einer unkomprimierten Aufnahme derselben Kamera interessieren, um zu sehen, ob man einen erkennbaren Unterschied wegen der Kompression sehen kann. Leider besitze ich nicht mal eine Video Kamera. Heutzutage besitzt ja jeder ein Handy, das in die Hosentasche passt. Was die Sender jedenfalls ausstrahlen, ist besser geworden, aber bestimmt ist noch Luft nach oben. Videobeiträge z.B. der tagesschau sahen lange so aus, als stammten sie aus einem Youtube Kanal. Durch 4K und eine bessere Detailtreue sind die Bilder natürlicher geworden die letzten Jahre.

Ein sichtbarer Unterschied zwischen komprimierten und unkomprimierten Videostreams ist von vielen Faktoren abhängig. Nicht nur muss der Betrachtungsabstand hierfür sinnvoll gewählt werden, es kommt auch auf den Content selbst an. Es gibt kritische und weniger kritische Bildinhalte die Kompressionsartefakte zu Tage treten lassen.

Ebenso entscheidend ist das verwendete Authoring. Zur Erstellung einer Blu-ray werden keine Live-Encoder verwendet. Das würde bei einer Kompressionsrate von 1:80 bis hin zu 1:100 u.U. mehr als sichtbare Artefakte kreieren. Deshalb werden hier Multi-Cycle Encoder verwendet, mit dem Ziel über mehrere Encoderdurchläufen die beste Bildqualität zu erhalten. Mitunter dauert ein solcher Authoringprozess mehrere Tage an Rechendurchläufen. Am Ende muss man dann schon wirklich Experte sein um Artefakte ausmachen zu können. Übertreibt man es mit der Kompression, nun, dann wird die Sache sichtbar.

Manche Beiträge der tagesschau sehen nicht nur aus wie von youtube, sie stammen mitunter auch von youtube. In einer Nachrichtensendung kommt es nicht auf Qualität an, sondern auf die Verfügbarkeit von Bildmaterial.
AusdemOff
Inventar
#5333 erstellt: 24. Nov 2025, 20:44

fakeframe (Beitrag #5330) schrieb:
Antwort KI bezüglich der Knee-Funktion:

"Die "Knie-Funktion" in der Videotechnik bezieht sich auf einen Bildbearbeitungseffekt zur Kontrastanpassung in dunkleren oder überbelichteten Bereichen. Sie komprimiert die Tonwerte in diesen Bereichen, um Details wieder sichtbar zu machen, indem die Kamerakennlinie an einem bestimmten Punkt abgeknickt wird (das sogenannte "Knee").

Ist nicht ganz falsch, was die KI da erzählt, man muss aber auch schon fast ein Experte sein um zu verstehen was damit gemeint ist. Zuerst einmal: offensichtlich scheint die Kniefunktion keine Simulation oder Nachahmung des Films zu sein. Eine Kamerakennlinie als solchen gibt es nicht. Gemeint ist aber die verwendete Gammakurve. Diese wird nicht abgeknickt, sondern an einem vorgewähltem Punkt (Knee-Point) mehr oder weniger abgeflacht. Die Abflachung macht sich in einer Steigung bemerkbar (Knee-Slope).

Knie-Funktion in der Videotechnik
Zweck: Der Kontrastumfang in der Aufnahme wird erweitert.

Das wiederum ist technisch unmöglich. Der Kontrastumfang moderner Kameras wird durch die Lichtempfindlichkeit des Sensors und des optischen Blocks definiert und bestimmt. Mit der Kneefunktion kann man den Punkt der Gammakurve bestimmen ab dem weitere Spitzlichter weniger komprimiert werden. Eigentlich ist das Wort Komprimierung hier auch irgendwie falsch. Es wird nichts im klassischen Sinn komprimiert. Wenn der Sensor in seine Sättigung hineinläuft, z.B. durch eine Überbelichtung, kann man nur versuchen diese Helligkeitswerte stärker zu dämpfen (zu komprimieren). Dies geschieht über gezielte Veränderung der Gammakurve in den Highlights.


Alternative: Eine natürliche Darstellung mit großem Kontrastumfang wird besser durch High Dynamic Range (HDR) erzielt, das die "Knie-Funktion" überflüssig machen kann."

Wie gesagt, wenn der Sensor den Kontrastumfang nicht kann, hilft auch kein HDR. Am Ende läuft es aber auf das Gleiche hinaus: HDR ist nichts anderes als eine geänderte Gammakurve im Vergleich zur BT.709.
Aragon70
Inventar
#5334 erstellt: 24. Nov 2025, 23:38
Copilot hat dieses Diagramm gezeichnet um die Knee Funktion anschaulich zu erklären.

https://imgur.com/a/nYi0K3O

Ich bin nur erstaunt das es ein Knick ist, hätte erwartet das es eher eine Kurve ist.

Aber zurück zum Thema.

Wegen VRR und Frame Interpolation. Das sollte auch ohne Bewegungs Vektoren gehen. Diese sorgen ja nur dafür das RTX Framegen genauer Bewegungen analysieren kann.

RTX Framegen verwendet nur die letzten beiden Frames. Es wird die Zeit dazwischen messen, z.B. 16,6 ms bei 60 fps die Framerate wird mit 2xFramegen z.B. auf 120 fps erhöht. zumindest für diese 2 Frames. Es wird aus den vorigen beiden Frames ein neuer extrapoliert der dann 8,3ms nach dem letzten echten Frame angezeigt wird.

Wenn der nächste echte Frame kommt und der Abstand zwischen diesem und dem letzten 18 ms ist, es also 55 fps wären dann wird der neue Frame diesmal 9 ms nach dem letzten extrapoliert, danach sind es vielleicht 20 ms, in in dem Fall wird dann 10ms voraus interpoliert.

Sollte relativ gut klappen wenn die Framerate nicht gerade jeden Frame extrem hin und her schwankt, aber VRR glättet da denke ich auch etwas, aber womöglich würde man das eh nicht sehen.
AusdemOff
Inventar
#5335 erstellt: 25. Nov 2025, 00:25
Es ist eine Kurve. Copilot verwendet hier offensichtlich eine besondere Grafik zum besseren Verständnis.
Das ist beinahe so wie die Treppendarstellung eines A/D-Konverters.
seifenchef
Inventar
#5336 erstellt: 25. Nov 2025, 15:38

Aragon70 (Beitrag #5334) schrieb:


Wegen VRR und Frame Interpolation. Das sollte auch ohne Bewegungs Vektoren gehen. Diese sorgen ja nur dafür das RTX Framegen genauer Bewegungen analysieren kann.
.....
Es wird aus den vorigen beiden Frames ein neuer extrapoliert der dann 8,3ms nach dem letzten echten Frame angezeigt wird.



Die Vektoren sind m.E.n. genau der Stoff aus dem extrapoliert/ oder auch interpoliert wird.

Keine Vektoren .....

gruß seifenchef
seifenchef
Inventar
#5337 erstellt: 25. Nov 2025, 15:44

AusdemOff (Beitrag #5332) schrieb:


Manche Beiträge der tagesschau sehen nicht nur aus wie von youtube, sie stammen mitunter auch von youtube. In einer Nachrichtensendung kommt es nicht auf Qualität an, sondern auf die Verfügbarkeit von Bildmaterial.


Exakt.

Weshalb es eben extrem lustig ist, dass Du die 'real 50 fps' der heute Redaktion (weiter oben) als besondere Leistung hervorhebst - es interessiert schlicht keine Sau - SCNR, während die Spielfilmwelt weiter mit Parkinson leben muss.

gruß seifenchef
Aragon70
Inventar
#5338 erstellt: 26. Nov 2025, 02:11

seifenchef (Beitrag #5336) schrieb:
Die Vektoren sind m.E.n. genau der Stoff aus dem extrapoliert/ oder auch interpoliert wird.

Keine Vektoren .....

gruß seifenchef

Klar, ich meinte damit keine "Extra" Bewegungs Vektoren die das Spiel selbst zusätzlich liefert. Ich mein die Fernseher könnten die letzten 3-5 Frames verwenden oder welche in der Zukunft und zurück interpolieren wenn 2 Bilder nicht reichen.

Jedenfalls, ich denke es müßte auch auf Fernseher mit VRR grundsätzlich funktionieren.


[Beitrag von hgdo am 26. Nov 2025, 17:09 bearbeitet]
fakeframe
Stammgast
#5339 erstellt: 26. Nov 2025, 16:20
Wie dem auch sei, an den 25p Produktionen zur Kosteneinsparung und zur Einsparung von Datenraten können wir nichts ändern.

Mal schaun, ob wir bald Infos zu einer 120 Hz BFI Funktion bei der kommenden Generation bekommen. Ändert nichts am Ruckeln, macht Kameraschwenks aber schärfer, sofern in 50/60p
AusdemOff
Inventar
#5340 erstellt: 26. Nov 2025, 16:32
Kameraschwenks im Stadion, auch in 2160p/50, saufen recht schnell in Bezug der Auflösung ab.
Wie man daraus wieder ein scharfes Bild errechnen soll, ist mir schleierhaft. Erst recht in Echtzeit.
fakeframe
Stammgast
#5341 erstellt: 26. Nov 2025, 17:30
Dann brauch ich auch keine MCFI, wenn sie das nicht scharf gerechnet bekommt.

Auf 100fps können wir noch sehr lange warten. Wozu eigentlich 4K, wenn dann ständig bei Fußball das Bild in Bewegung verschwimmt.
Vllt liegt es aber auch an der Belichtungszeit und der Aufnahmequalität. 50 scharfe Bilder ruckeln nur wenig und wären dank BFI scharf.
AusdemOff
Inventar
#5342 erstellt: 26. Nov 2025, 22:11
Du hast den Nagel auf den Kopf getroffen.

Jetzt kommt die Ironie:
In einem Punkt hat Seifenchef ja recht. Die ständige Erhöhung der Auflösung (Pixelzahl) lässt sich nunmal besser verkaufen.
Stichwort: higher number counts. Hierbei wurde sträflich die Bildwiederholfrequenz vernachlässigt. Dies musste am Ende auch die NHK eingestehen die zur Olympiade in Tokyo groß mit 8k (und 60p) herauskommen wollte. Nach ersten Sichtungen auf den daüfr notwendigen rießigen TVs war ganz schnell klar das 8k für Sport mit 60p vollkommen ungeeignet ist.
Gleiches geschah mit 4k. Deshalb kommt es auch nicht aus den Puschen.

Kein MCFi, BFi oder wie auch immer man die Tricks der Bildaufbereitung nennen mag, was nicht da ist, lässt sich auch nur schwer wieder rekonstruieren.

Die logische Konsequenz wäre 1080p/100. Aber dafür lässt sich auch die Politik nicht begeistern. Hierfür hatte die EBU extra ein digitales Wohnzimmer eingerichtet. Obwohl den meisten PolitikerInnen der Vorteil von 100 Bildern pro Sekunde doch ins Auge fiel, trauten sie sich nicht daran die Sache zu unterstützen. Dem Pixelwahn ist auf Seiten der Endkunden nicht bei zu kommen.

Senkt man die Belichtungszeit wird zwar die Sache mit der Bewegtbildauflösung besser, das Bild aber gleichzeitig dunkler. Ergo, kein gangbarer Weg. Was ist Aufnahmequalität? Die Kompressionsrate? Diese ändert nichts an der Bewegtbildauflösung.
celle
Inventar
#5343 erstellt: 27. Nov 2025, 06:41

Senkt man die Belichtungszeit wird zwar die Sache mit der Bewegtbildauflösung besser, das Bild aber gleichzeitig dunkler.


Blendenöffnung erhöhen. Gerade im Weitwinkelbereich gibt es auch bei geöffneter Blende sehr randscharfe Objektive. ISO kann man auch erhöhen. Muss das Broadcasting halt mal auf modernere lichtstarke Kamerasensoren setzen, die bei hohen ISO weniger rauschen. Fußball unter Flutlicht ist nun wirklich nicht dunkel, dass man da Probleme hätte kürzere Belichtungszeiten zu nutzen und gezwungen ist weit öffnende Blenden zu nutzen.
Sportfotografen bekommen es ja auch hin.
AusdemOff
Inventar
#5344 erstellt: 27. Nov 2025, 10:56
Das ist der Unterschied zwischen still photograph und Broadcast.

Wenn du die Blende einer Broadcastkamera aufziehst, insbesondere wenn in SDR produziert wird, läufst du ganz schnell in die Sättigung.

Was heißt denn hier lichtstarke Kamerasensoren? Die Technik der Sensoren für den Anwendungsbereich Broadcast ist seit Jahren an ihrem Limit. Ein einzelner Lichtblick waren/sind die OPF-Sensoren die vor Jahren einmal (2013) von Panasonic und Fujifilm entwickelt wurden. Es war das Konzept der Organic Photoconductive Film Technologie. Diese wäre in der Lage gewesen die Empfindlichkeit heutiger Broadcastkameras von um die F11 in Richtung F20 zu erweitern.

Viele Patente hierfür gehören der NHK. Panasonic hat parallel seine Entwicklungs- und Produktionsstätte für Bildsensoren nach Taiwan verkauft. Seither ist Stille.

Die Optiken der Sportfotografen ist nicht mit den Zoomobjektiven im Broadcastbereich zu vergleichen. Diese sind viel lichtschwächer und müssen darüber hinaus auch anderen Bedingungen genügen. Im übrigen: manche Broadcastkamera nutzt die gleichen Sensoren wie so manche DLSR.
celle
Inventar
#5345 erstellt: 27. Nov 2025, 11:31
Sony ist bei den Sensoren führend. Panasonic hat da nicht wirklich was zu melden.
AusdemOff
Inventar
#5346 erstellt: 27. Nov 2025, 11:42
Das ist absoluter Blödsinn. Ja, Sony hat einen Marktanteil von ca. 60 %. Deswegen alle anderen zu disqualifizieren ist mehr als fragwürdig. Sony liefert auch nicht für jeden Anwendungsfall die passenden Sensoren.

Wenn man sich im Broadcastbereich, insbesondere bei den Studiokameras umsieht fällt auf, das jeder Hersteller, ob Sony, Grass Valley, Ikegami, Hitachi und Panasonic alle ihre eigenen Sensoren verwenden. Diese müssen nicht zwingend von den Kameraherstellern stammen oder sind von Sony zugekauft.

Und wie ich schon sagte, Panasonic stellt seit ca. 10 Jahren schon gar keine eigenen Sensoren mehr her. Was aber immer wieder unter den Tisch fällt ist das R&D. Beispiele: ein Sony Blu-ray Player wäre ohne Panasonic gar nicht möglich. Der blaue Laser und seine Technologie stammen von Panasonic. OLED TVs von LG? Ohne Panasonic unmöglich. Für die Herstellung benötigte Chemikalien kommen immer noch von Panasonic.
Aragon70
Inventar
#5347 erstellt: 27. Nov 2025, 17:50
Ich denke 4K 120 fps sollten technisch keinerlei Problem mehr für aktuelle Profikameras sein. Meine Sony Alpha 6700 bekommt damit schon qualitativ recht gute Videos hin, ich denke das könnte für Fußball Live Übertragung auch schon ausreichend gut sein. Wobei man 4K/60 fps eh schon ziemlich perfekt mit FI auf 120 fps hochrechnen kann ohne das man groß Fehler bemerkt.

Das Problem ist sicher daß die Sende Anstalten einfach noch massenweise ältere Kameras haben die damals sicher auch teuer waren und Profi Kameras sind meist Spezial Konstruktionen die zwar kaum sobesser sind als die Consumer Kameras, aber trotzdem viel teurer.

Die Bildqualität der letzten EM bei ARD/ZDF war jedenfalls ein Trauerspiel.

Gerade Fußball würde enorm von richtigem 4K 120 fps profitieren. Man muß es wohl nur gut genug verkaufen. Dolby Real Life oder so ähnlich. Sobald Dolby davor steht finden es automatisch alle super, lol.
AusdemOff
Inventar
#5348 erstellt: 27. Nov 2025, 18:43

Ich denke 4K 120 fps sollten technisch keinerlei Problem mehr für aktuelle Profikameras sein. Meine Sony Alpha 6700 bekommt damit schon qualitativ recht gute Videos hin, ich denke das könnte für Fußball Live Übertragung auch schon ausreichend gut sein.

Wenn das technisch so einfach wäre, würde es jeder tun. Versuche doch einmal im Stadio mit deiner Kamera das Spiel auf dem Platz zu dokumentieren. Viel Spaß dabei!

Das Problem ist sicher daß die Sende Anstalten einfach noch massenweise ältere Kameras haben die damals sicher auch teuer waren und Profi Kameras sind meist Spezial Konstruktionen die zwar kaum sobesser sind als die Consumer Kameras, aber trotzdem viel teurer.

Würde man denken, aber nein. Je nach Anwendungen werden die Geräte alle 7 - 15 Jahre ausgetauscht.
Was ist besser, ein Formel 1 Auto oder ein VW Passat?
TV-Equipment sind keine Spezialkonstruktionen. Ihr höherer Preis ist lediglich dadurch begründet das die verkaufte Menge relativ klein ist.

Zum Thema Consumer Kamera sind nahezu gleich gut im Verrgleich zu TV-Equipment. Nun, so dachten die Kollegen vom Hörfunk auch, als sie auf die Idee kamen ihr Radioprogramm nicht nur als Audiostream im Internet zu verbreiten, sondern vielleicht auch ein Bild aus dem Studio mitzuliefern. Dies sollte/musste nicht so gut wi die tagesschau sein, aber man sollte deutlich klar sehen was im Studio so abgeht. Gesagt, getan. Sollte natürlich alles nichts kosten. Also, her mit den Konsumerkameras.
Am Ende wurde jede Menge Lehrgeld bezahlt. Heute stehen dort reihenweise Profikameras.

Die Bildqualität der letzten EM bei ARD/ZDF war jedenfalls ein Trauerspiel.

Hier ist viel Politik im Spiel. Die Qualität der Sportübertragung hängt von denen ab, die sie bestellen. In diesem Falle der UEFA. Man ist dort, auf technischer Seite, sehr konservativ. Experimente werden vermieden und wenn der Haus- und Hoflieferant nichts anderes hat, nun, dann wird das gesendet was gerade geht. Es hätte besser gehen können. Wenn man aber versucht einem jahrzentealten Mercedesfahrer einen BMW oder Audi näher bringen zu wollen, wird gemauert was das Zeug hält.

Gerade Fußball würde enorm von richtigem 4K 120 fps profitieren. Man muß es wohl nur gut genug verkaufen. Dolby Real Life oder so ähnlich. Sobald Dolby davor steht finden es automatisch alle super, lol.

So ist es. Weder die Politik noch die Technikveranwortlichen und erst recht nicht die Konsumenten rufen nach mehr als das, was zur Zeit gesendet wird. Hier im Forum, das ist eine Blase. Eine Nische, ohne Effekt nach draußen. 2160p/100 oder gar 120 wird es erst dann geben, wenn die Industrie nichts mehr anderes anbietet. So ähnlich geschehen bei HD. Schritt für Schritt "fliegt" momentan Interlaced aus den Geräten. Das wird Jahre dauern.
Initiativen, das TV-Bild besser zu machen sind allesamt verstummt. Noch nicht einmal mehr die EBU unternimmt hier irgend etwas. Hier in D kocht man im eigenen Saft. Interne Politik ist wichtiger als die Technik. Kein Wunder, macht doch die Technik keine 10 % des Budgets der Öffis aus. Man investiert lieber in KI und deren vermeintlichen Möglichkeiten als das Bild zu verbessern.

Auf lange Sicht werden die Öffis zwar nicht verschwinden, doch eher ein Nischendasein fristen. Schaut man sich die Altersstruktur der TV-Zuschauer an, dann weiß man, das trägt bis zum Ableben der Babyboomer. Dann wird es heiß. Zu weit weg für die meisten Verantwortlichen in den Häusern. Und wären wir Deutsche nicht so engstirnig was Bezahlfernsehen anbelangt, hätten vermutlich die Öffis schon lange ausgespielt. Seht euch an, was gerade in UK mit der BBC passiert. Das Aushängeschild schlechthin für Linearfernsehen wird Scheibe für Scheibe demontiert.
fakeframe
Stammgast
#5349 erstellt: 03. Dez 2025, 13:37
Klick

Wenn sogar das möglich ist, sind 100 Bilder pro Sekunde kein Problem. Es ist eine Frage des Willens.
seifenchef
Inventar
#5350 erstellt: 03. Dez 2025, 16:22
Hi


Aragon70 (Beitrag #5347) schrieb:
Ich denke 4K 120 fps sollten technisch keinerlei Problem mehr für aktuelle Profikameras sein..


Die DSLR eines Freundes macht 6K in 60 fps. (glaube Canon)
Aber so einfach ist es nun leider nicht.

Es müssten für viele Milliarden ! die ganze Infrastruktur, Studio, Verkabelung, einfach alles, umgebaut werden.

Ich rechne so es geht in DaVinci immer nur 50 oder 60P, falls nötig passe ich in Topaz noch Material an

Die Renderzeit verdoppelt sich natürlich wenn die Bildzahl sich verdoppelt, verfünffacht sich, wenn Du von 25 auf 120 fps willst ...

Infrastruktur-Bandbreite von Ruckel-HD-Ready zu 4K 120fps -> 9 fache 'Pixel-Auflösung x 5 fache zeitliche Auflösung -> 45 facher Datenstrom!

-> das wäre etwa so, als wenn Dein Drehstromherd plötzlich statt 11 KW 500 KW haben will, oder Dein Auto statt 8 Liter plötzlich 360 Liter auf 100 km frisst ...

UM ES MAL BILDLICH ZU MACHEN !

... Ich denke mal bevor das ganze gerade Existierende nicht durch große Erdbeben völlig dem Erdboden gleichgemacht wird, wird dort gar nichts passieren.

... die Wirtschaft geht gerade den Bach runter ... da schwimmen die Bits dahin ...

gruß seifenchef


[Beitrag von seifenchef am 03. Dez 2025, 16:28 bearbeitet]
AusdemOff
Inventar
#5351 erstellt: 03. Dez 2025, 16:36
Ohne die Zahlen im Detail zu überprüfen, die Richtung stimmt.

Ebenso, das Profikameras bereits jetzt schon 3840p/120 bzw. /100 können. Das wird insbesondere auch für High-speed Aufnahmen gebraucht. Speziell im Sport. Frage aber nicht, wie das oft technisch gelöst ist. Nativ ist da etwas anderes.
Zweifache Zeitlupe wären dann 240p. Nicht unlösbar, aber unbezahlbar.

Heutzutage reden wir bei Kamerasystemen die 3840p/120 können von der absoluten Speerspitze. Diese Geräte gehen absolut ins Geld.

Man darf nicht einzelne Kameras oder Systemkomponenten im Kopf haben, wenn man über solche Dinge diskutiert. Man muss das Gesamtsystem im Auge behalten und sich vor Augen führen was das als Ganzes für Konsequenzen hätte. Plötzlich sieht dann die Welt anders aus.
seifenchef
Inventar
#5352 erstellt: 03. Dez 2025, 17:38

fakeframe (Beitrag #5349) schrieb:
Klick

Wenn sogar das möglich ist, sind 100 Bilder pro Sekunde kein Problem. Es ist eine Frage des Willens.




Klasse Gag!
... aber sehr interessant ...

gruß seifenchef


PS: Wille heißt im Kapitalismus schlicht Geld .. einfach mal Marx lesen wenn nix in der Glotze ist ...


[Beitrag von seifenchef am 03. Dez 2025, 19:00 bearbeitet]
seifenchef
Inventar
#5353 erstellt: 03. Dez 2025, 17:52

AusdemOff (Beitrag #5348) schrieb:

... Weder die Politik noch die Technikveranwortlichen und erst recht nicht die Konsumenten rufen nach mehr als das, was zur Zeit gesendet wird. Hier im Forum, das ist eine Blase. Eine Nische, ohne Effekt nach draußen.


Konsens.

Selbst hier im Forum GLAUBEN die meisten sie hätten 4K wenn sie von der 3m entfernten Couch auf den 65" 4K TV glotzen ....

Dazu braucht man aber entweder einen als Computermonitor benutztes Zeil von mindestens 43" oder mindestens 120" im Wohnzimmer.

-> der Mensch ist mathefern und glaubensnah ...

... ach so, hätts fast vergessen ... und ruckeln muss es, quasi als erhobener Finger und Strafe Gottes oder so ähnlich ... SCNR

gruß seifenchef
seifenchef
Inventar
#5354 erstellt: 03. Dez 2025, 18:07

AusdemOff (Beitrag #5340) schrieb:
Kameraschwenks im Stadion, auch in 2160p/50, saufen recht schnell in Bezug der Auflösung ab.
Wie man daraus wieder ein scharfes Bild errechnen soll, ist mir schleierhaft. Erst recht in Echtzeit.


Mhhh, interessanter Aspekt.
Ich denke es liegt daran, dass mit der 180 Grad Regel gedreht wird?
Das muss aber nicht sein, die ist wirklich nur extrem wichtig bei Low-Frame-Rate 24 und 25 bzw. noch Ansatzweise bei 30 fps.

Bei 60 fps (wie weit da jetzt 50 fps entfernt ist weiß ich nicht) ist die 180 Grad Regel schon ziemlich bedeutungslos.
Also kürzer belichten. -> Kamera wieder teurer, da sie empfindlicher sein muss...ein Teufelskreis ...
ein weites Feld.

Kann man denn 50 fps so kurz belichten, sagen wir 1/500 sec, als ob man 250 fps drehen würde, und der heimische TV macht die nötigen Zwischenbilder daraus, oder zumindest erstmal eins ... ?
fakeframe
Stammgast
#5355 erstellt: 03. Dez 2025, 18:12
An der Technik sollte es nicht scheitern, es scheitert wohl am Geld. Gerade bei Fußball sind Ruckeln und/oder eine schlechte zeitliche Auflösung gut sichtbar. Aber es ist ja nicht alles Fußball. Naturdokus mit viel Licht sollten einfacher mit 50-100 fps umsetzbar sein (extreme Zeitlupen von flatternden Kolibris sind ja auch möglich).

Aber da 99,99% der Zuschauer keinen Bedarf danach haben, geschweige nicht wissen, dass es ein solches Thema gibt, wird sich so schnell nichts ändern.


[Beitrag von fakeframe am 03. Dez 2025, 18:13 bearbeitet]
AusdemOff
Inventar
#5356 erstellt: 03. Dez 2025, 18:19
Eine 180° Regel gibt es im TV nicht.

Sicher, ein Motion Blurr kann man mit geringer Belichtungszeit minimieren. Selbst wenn die Kamera lichtempfindlich genug wäre, gibt es hier eine Grenze. Irgendwann wird die Bewegung, auch bei 50 Bilder/s wieder stakkatoartig, also abgehackt.

Das Beispiel Fußball ist hier in der Diskussion jetzt sehr interessant. Gerade bei diesem Genre versuchen die Verantwortlichen des DFBs, der DFL, UEFA, FIFA und sonst noch so, ihr Produkt so teuer und gut wie möglich zu verkaufen. Und trotzdem akzeptieren sie, und auch deren Fans, Bilder voller Motion Blur. Verrückte Welt, oder?
seifenchef
Inventar
#5357 erstellt: 03. Dez 2025, 18:54

AusdemOff (Beitrag #5342) schrieb:

... Hierbei wurde sträflich die Bildwiederholfrequenz vernachlässigt. Dies musste am Ende auch die NHK eingestehen die zur Olympiade in Tokyo groß mit 8k (und 60p) herauskommen wollte. Nach ersten Sichtungen auf den dafür notwendigen rießigen TVs war ganz schnell klar das 8k für Sport mit 60p vollkommen ungeeignet ist.


Aber wir sind uns ja vielleicht einig, dass da oben eben keine Freaks sondern machthungrige/erfolgreiche Giermonster-Alphatiere dran sind *, die solchen Blööödsinn verzapfen, und zwar immer wieder, Jahrtausend über Jahrtausend ....

* sie hätten sich ja nur mal in der Sportfotografie umschauen brauchen ! !

PS: "Verrückte Welt, oder? "

-> meine Antwort als Hobby-Philosoph: (frei nach Schopenhauer)

Leben ist eine irrationale Strebung der Energie ...

gruß seifenchef


[Beitrag von seifenchef am 03. Dez 2025, 18:58 bearbeitet]
seifenchef
Inventar
#5358 erstellt: 03. Dez 2025, 19:29

AusdemOff (Beitrag #5348) schrieb:

... Auf lange Sicht werden die Öffis zwar nicht verschwinden, doch eher ein Nischendasein fristen. Schaut man sich die Altersstruktur der TV-Zuschauer an, dann weiß man, das trägt bis zum Ableben der Babyboomer. Dann wird es heiß. Zu weit weg für die meisten Verantwortlichen in den Häusern. Und wären wir Deutsche nicht so engstirnig was Bezahlfernsehen anbelangt, hätten vermutlich die Öffis schon lange ausgespielt. Seht euch an, was gerade in UK mit der BBC passiert. Das Aushängeschild schlechthin für Linearfernsehen wird Scheibe für Scheibe demontiert.


... naja, wieder mal ein Medienwandel ...

... schade, hätte ne gute Grafik dazu, leider kann man wohl keine Bilder mehr hier hochladen ?
ehl
Inventar
#5359 erstellt: 03. Dez 2025, 20:34

Sicher, ein Motion Blurr kann man mit geringer Belichtungszeit minimieren. Selbst wenn die Kamera lichtempfindlich genug wäre, gibt es hier eine Grenze. Irgendwann wird die Bewegung, auch bei 50 Bilder/s wieder stakkatoartig, also abgehackt.

Selbst ohne jeglichen Motion Blur erscheinen 60fps nicht abgehackt, vom Sample&Hold Effekt mal abgesehen.

https://www.youtube.com/watch?v=vigX3H7WX5Q

Mit der "." Taste lässt sich sich Frame für Frame durchgehen, für jeden Frame gilt hier maximal erreichbare (Stand)bildschärfe.
Also auch mit perfekter Bewegtbildschärfe werden 60fps nicht ruckelig wahrgenommen

Es hat einen Grund, warum sich die Regler der Zwischenbildberechnung "De-judder" und "De-Blur" (o.Ä.) nennen.
Ab ca. 50fps tritt der (wahrgenommene) sample&hold Blur in den Vordergrund, während die BEwegungen flüssig erscheinen.

Hier im direkten Vergleich 24fps vs 30fps vs 60fps, wobei die 24fps natürlich im 3:2 Pulldown wiedergegeben werden, was ungleichmäßigen Stutter induziert.

https://youtu.be/_SzGQkI-IwM?t=23

Leider etwas sehr lahme Bewegung, aber man sieht den Unterschied in der Geschmeidigkeit sehr deutlich.

Übrigens bin ich überrascht wie viel 30fps ggü. 24fps ausmachen kann, der Beginn von Wonder Woman erschien mir z.B. so stark verruckelt, dass ich schon fast einen Defekt vermutete.

Dagegen mal hier ein paar Kameraschwenks aus 30fps Filmmaterial

https://youtu.be/WGqEfNa43m8?t=1869

Klar bei schnellen Bewegungen wie im Sport genügen 30fps nicht, aber für die üblichen gemächlichen Kameraschwenks im Film ist das m.M.n. soweit ganz brauchbar, sofern nicht gerade der Kontrast von bewegtem Objekt zum Hintergrund sehr hoch ist (weiß auf schwarz) wie im vorherigen 30 vs 60fps Video.

Aber auch hier wird es natürlich Stimmen geben, die die deutlich geschmeidigere Bewegung von 30 fps vs 24fps kritisieren
Ein wenig dazu https://www.cinematography.net/edited-pages/30FPS.htm

"Film is shot at 24 frames per second. At that speed, there is a certain amount of blur in the images. There is also a brief time between the frames when there is no image at all and there is a little perception of flicker. Though this film process may sound technically flawed, in fact, these ""imperfections"" cause the audience to use their imagination to fill in the blanks of the missing information."
Und dennoch flimmert es , woher will der Filmemacher überhaupt das ausgleichende Vorstellungsvermögen des Zuschauers kennen oder einschätzen können? Weil er es so sieht und wahre "Cineasten" es sowieso so zu sehen haben und wer es nicht tut, soll doch besser ganz dem Medium Film fernbleiben, da er dann dessen Wert ohnehin verkennt?
Der übliche Zielgruppenausschluss, wenn's dir hier nicht gefällt, geh doch wo anders hin!

Zmdst. reicht das Vorstellungsvermögen nicht aus, um das Ruckeln zu glätten, bestenfalls wird es wie in dunklen Szenen kaum wahrgenommen bzw. übersehen.

Man kann es auch gegenteilig sehen
"30fps looks far smoother than 24, and the ""stuttering"" problem of 24fps is significantly reduced. Every time I see a scene projected on a screen that suffers from that 24fps ""stutter"" it immediately disrupts any ""suspension of disbelief"" and subsequently my sense of personal involvement with the narrative. I fail to see how severing the audiences emotional participation by abruptly reminding them that they are not truly involved in the story can possibly contribute a thing to improving the filmgoing experience.

Again, and with all due respect, IMHO all I see here is the need by many cinematographers to cling to a traditional frame rate since ""its what we have always done and always intend to do"".

michael siegel"


Ruckeln ist das eine, weit mehr stört mich das daraus resultierende Kontrastflackern wie z.B. in dem 30 vs 60fps Testvideo oder z.B. der Marktszene aus Aquaman.

Das stroboskopmäßige Geflacker ist richtig unangenehm, besonder hohe Helligkeiten wie in HDR möglich fördern das im ungünstigen Fall umso mehr.


[Beitrag von ehl am 03. Dez 2025, 21:38 bearbeitet]
fakeframe
Stammgast
#5360 erstellt: 03. Dez 2025, 22:43
Trotz halber Framerate sind ja die 30 fps gar nicht so weit von den 60 fps entfernt (die allerdings auch ganz schwach bei mir ruckeln).

Hätte sich die Filmindustrie mal wenigstens auf 30 fps geeignet, dann wäre das Zuckeln deutlich reduzierter und bei 60Hz muss auch kein Pulldown durchgeführt werden
seifenchef
Inventar
#5361 erstellt: 03. Dez 2025, 22:49

ehl (Beitrag #5359) schrieb:
Selbst ohne jeglichen Motion Blur erscheinen 60fps nicht abgehackt, vom Sample&Hold Effekt mal abgesehen.

https://www.youtube.com/watch?v=vigX3H7WX5Q

Konsens. Danke

ehl (Beitrag #5359) schrieb:
Übrigens bin ich überrascht wie viel 30fps ggü. 24fps ausmachen kann, der Beginn von Wonder Woman erschien mir z.B. so stark verruckelt, dass ich schon fast einen Defekt vermutete..

Sehe ich ähnlich.
30 fps ist zwar nicht perfekt, aber 24 und 25 kotzen mich wirklich richtig an ... SRY

gruß seifenchef


[Beitrag von hgdo am 04. Dez 2025, 19:02 bearbeitet]
celle
Inventar
#5362 erstellt: 10. Dez 2025, 14:33
Erste LCD-Monitore mit 1000Hz angekündigt. OLED wird sicherlich bald folgen. 720Hz sind da ja auch schon möglich und sollte auch deutlich schärfer aussehen, als bei den trägen LCD-Modellen.

https://www.flatpane...owfull&id=1765367894
fakeframe
Stammgast
#5363 erstellt: 10. Dez 2025, 15:48
1000Hz machen bei OLED wesentlich mehr Sinn, ab 500 Hz dürften selbst die schnellen TN Panels zu langsam sein, um bei einer weiteren Steigerung einen Unterschied sehen zu können.
Aragon70
Inventar
#5364 erstellt: 11. Dez 2025, 00:47
Aber nur bei 720p. Aber bei 2560 x 1440 sind es zumindest 500 Hz.

Womöglich die ersten Hinweise darauf das NVidia RTX Multiframegen bei den neuen GPUs noch weiter als Faktor 4 treiben könnte.

Mit den 165 Hz des Samsung S95F habe ich mit 4x MFG native 41 fps. Das passt ganz gut, die 165 fps wirken gut erkennbar flüssiger als 120 fps, aber es ist auch erkennbar daß man gerne noch höher gehen könnte.

Für 500 fps könnte man dann bis zu 12x Multiframegen anbieten um diese auszunützen.

Ich glaube aber bereits ab 240 Hz bzw. 240 fps wird doch so langsam schwierig noch weitere Vorteile zu erkennen
celle
Inventar
#5365 erstellt: 11. Dez 2025, 06:33
Zu einer Röhre sind das noch Welten, deswegen ja 1000Hz bei SaH-Displays als Zielmarke. Bei LCD ist das aufgrund der trägen Schaltzeiten nur Marketing. Bei OLED nicht. Mit einem RetroTink und einem 540/1000Hz-OLED sind da schon schöne Optionen möglich umd die Bewegtbildschärfe aufzupolieren.
Suche:
Gehe zu Seite: |vorherige| Erste .. 70 . 80 . 90 . 100 . 103 104 105 106 107 108 Letzte |nächste|
Das könnte Dich auch interessieren:
LG65C1 Xbox Series X 120 FPS
Peeeeter am 16.12.2021  –  Letzte Antwort am 24.12.2021  –  7 Beiträge
PS5 - OLED VRR Bug bei 40 fps ?
Dualis am 16.02.2023  –  Letzte Antwort am 20.02.2023  –  3 Beiträge
C1 und VRR Bug mit XBOX Series X ?
Dualis am 19.05.2022  –  Letzte Antwort am 03.06.2022  –  19 Beiträge
55EC930V vs 55EA970V vs 55EA975V
alovera am 13.10.2015  –  Letzte Antwort am 14.10.2015  –  4 Beiträge
LG OLED 2020 X: 4K 48-77"/8K 65-88"|α9III |HGiG |G-sync+FreeSync | 120Hz-BFI| DV IQ
celle am 26.09.2019  –  Letzte Antwort am 05.11.2024  –  8885 Beiträge
Anzeigen der vollständigen Signalinformationen B6
annonym am 17.06.2017  –  Letzte Antwort am 22.06.2021  –  12 Beiträge
LG CX 48 Aufnahme
Bud122 am 30.08.2020  –  Letzte Antwort am 08.12.2020  –  13 Beiträge
LG OLED 65C97LA 50 hz 60 hz 100 hz oder 120 hz Panel !
fixgdf am 21.10.2019  –  Letzte Antwort am 21.10.2019  –  4 Beiträge
hat BFI Auswirkung auf die Lebensdauer von Oled. (65B8)
ninja-shuriken am 19.12.2020  –  Letzte Antwort am 19.12.2020  –  2 Beiträge
LG B9 HDR bei 60 Hz oder 120 Hz?
Bongobob am 08.12.2019  –  Letzte Antwort am 14.11.2020  –  11 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder930.696 ( Heute: 8 )
  • Neuestes MitgliedAKasper
  • Gesamtzahl an Themen1.563.585
  • Gesamtzahl an Beiträgen21.829.616

Hersteller in diesem Thread Widget schließen