Gehe zu Seite: Erste 2 Letzte |nächste|

LFE schon im Studio verzögert?

+A -A
Autor
Beitrag
Mickey_Mouse
Inventar
#1 erstellt: 05. Okt 2017, 15:58
in anderen Threads habe ich mich mit Tron_224 gekappelt, weil er immer etwas von einer "LFE Phasen Korrektur" "gefaselt" hat und ich mir absolut nicht vorstellen konnte warum man so etwas bräuchte.

angeblich ist auf einigen (vielen, allen?) Scheiben der LFE Kanal nicht "100% synchron" zu den anderen Spuren.
bei Pioneer AVR gibt es wohl eine Automatik die sich selber anpasst (anhand des Eingangssignals NICHT per Mikro!) und beim Denon 7200 kann man das manuell einstellen.

die beiden Hersteller schweigen sich über den Hintergrund dieser Funktionen in den Anleitungen weitestgehend aus (man kann den LFE "verschieben", aber gerade zur Automatik gibt von Pioneer gar nichts technisches zu lesen).
im Netz habe ich einige wenige Stellen gefunden wo darüber diskutiert wird. Da wird aber meist vermutet, dass damit die Phasenfehler ausgeglichen werden sollen, die durch die teils steilflankigen Filter entstehen (entweder im AVR z.B. beim Bass-Management oder im Studio).
aber die dabei auftretenden Phasenfehler dürften niemals in die Größenordnungen kommen über die wir hier reden.

ich wollte das partout nicht glauben und das widerlegen, dabei ist das Gegenteil heraus gekommen

ich habe die SACD Brothers in Arms (20th Anniversary) genommen und davon den Track Money for Nothing.
abgespielt über einen Oppo 103, der die DSD Daten nativ per HDMI (geht nur an HDMI-Out2 und muss im Setup explizit forciert werden) an eine Yamaha CX-A5100 Vorstufe liefert, die im Pure-Direct Modus die Daten ohne eine vorherige PCM Umwandlung und ohne irgendwelche Korrekturen (speziell Laufzeit Korrektur (LZK) gibt es bei DSD und Pure-Direct definitiv NICHT!).
davon habe ich einen der Stereo Kanäle und den Subwoofer1 (der in diesem Fall (Pure-Direct und DSD) 1:1 den LFE wiedergibt und nichts anderes) mit einem Yamaha Audiogram3 aufgenommen.

das hier ist das Ergebnis:


man sieht recht deutlich, dass der LFE sich erst etwas einschwingen muss und ziemlich genau 7ms dem Stereo Kanal hinterher hinkt.
und das beste ist, genau diese 7ms hat der Pioneer AVR selber automatisch ermittelt!
Bild vom Pioneer dazu (von Tron)

jetzt stellt sich mir die Frage: WIE ZUM TEUFEL KANN ES DAZU KOMMEN???
sind denn die Tontechniker komplett bescheuert und nicht in der Lage eine SACD zusammen zu mixen, bei der der DSD Stream vom LFE synchron zu den anderen Spuren ist?!?

fällt jemandem eine Erklärung ein ob diese 7ms irgendwo anders als im Studio zustande kommen können? Der Pioneer arbeitet sicherlich mit PCM Daten, die CX-A mit nativen DSD, bei Pure-Direct kann eigentlich nichts dazwischen funken.
mir fällt tatsächlich nur als Erklärung ein, dass da irgendwelche Filter oder sonst was bei der "Produktion" nicht oder falsch berücksichtigt wurde.

wie gesagt, bei Filmen soll es das ja genauso geben (gute Beispiele?)...
Tron_224
Hat sich gelöscht
#2 erstellt: 05. Okt 2017, 16:27
Ja, das Thema ist in einem eigenen Thread am besten aufgehoben.

Vielleicht noch ergänzend: Man hört den Unterschied sehr deutlich. Bei Pioneer heißt die Funktion „Auto Phase Control Plus“, und wenn ich diese deaktiviere (indem ich den automatisch ermittelten Wert mit 0 ms überschreibe), dann fehlt was im Vergleich zu vorher. Nennt es Druck oder wie auch immer, der Bass wird halt dünner, weil er nicht gleichzeitig ankommt.


Auto Phase Control Plus
During Blu-ray Disc/CD playback, Auto Phase
Control Plus makes real-time analysis of the phase
difference between the LFE (low frequency effect)
and the main signals, and automatically
compensates the gap. Elimination of phase lag
enhances strong bass and clear high-frequency
sound — especially effective for audio content such as live
performance and music video clips.


Bei Filmen auf BD etc. gibt es diesen Effekt auch, hier hatte ich mal Star Trek Beyond erwähnt:
http://www.hifi-forum.de/viewthread-35-76049-2.html

Erklären kann ich es mir nur so, dass die Phasenverschiebung durch eine Filterung (Bassmanagement) bei der Abmischung entsteht und jedoch nicht ausgeglichen wird. Die Formulierung in der BDA von Pioneer legt nahe, dass eine solche Phasenkorrektur im Studio möglich ist:


Auto Phase Control Plus
Für Discs, die mit anderen Standards als der Phasenkorrektur erstellt sind, wird der LFE-Kanal zur Aufnahme zuerst verzögert.

Aus der BDA zum Einsteigermodell VSX-922 von 2012

Eigentlich soll bei der Abmischung ja kein Bassmanagement erfolgen, denn das ist Sache der Wiedergabekette und ein doppeltes Bassmanagement führt zu komischen Phasendrehungen. Vielmehr legt man gezielt ganze Effekte auf den LFE.

Bei einer Bassdrum würde man also das Bumm auf den LFE legen und den Kick auf den Center. Hier sind ja verschiedene Mikros beteiligt, so dass man das recht gut trennen kann. Bei Filmen erklärt es sich von selber.

Weicht man von dieser Vorgehensweise ab, dann könnte es zu Phasenproblemen kommen.


4.6 Use of the LFE Channel
As noted in section 1, the LFE ("Low Frequency Effects") channel was originally introduced by the film industry because early theatrical speaker systems were unable to generate loud low frequency signals without clipping. Sometimes referred to as the "boom" channel, it is used in film applications to add dramatic effect, almost exclusively carrying the rumble of volcanic eruptions, spaceships thundering into view, and bombs and planets exploding. In terms of multichannel music production, however, there is some debate as to whether the LFE channel is necessary at all. One can argue that the home theater experience is heightened by having the walls shake whenever rocket launchers are fired, but is there really that much value in having the listener feel every bass drum hit in such a similarly dramatic fashion? There is no clear-cut answer, but the mere presence of the LFE channel almost dictates that it be used. The danger lies in overuse, because too much reliance on the LFE channel to carry bass information can result in the loss of low end altogether on incorrectly configured or poorly designed home theater systems. In addition, the LFE channel is discarded by most matrixed encoding systems (such as Dolby Pro Logic; see section 1.1) and downmixing algorithms (see section 5.5), including those used for HDTV broadcast. Therefore, the LFE channel should never be used to carry the bass content of the main speaker channels — that is the job of bass management. Because bass management is employed by almost every consumer home theater system, placing too much information in the LFE channel will effectively result in double management — total bass overload and probable distortion. Instead, the LFE channel is best approached with caution. Only modest amounts of signal from specific instruments with significant low frequency content — kick drum, tympani, bass guitar, acoustic bass, low organ or piano notes — should be routed to the LFE, and in all instances those instruments should also be printed full range to the desired main channels as well. An experienced mastering engineer can help in correctly assessing the relative level of the LFE channel as compared with the main channels.

4.6.1 Filtering the LFE Channel

The subwoofer is often the most inaccurately configured component in the typical home theater system. Bass management schemes in consumer receivers vary widely, and most employ filtering after the summation of main channel and LFE information. A mixer who is not monitoring through a bass managed system can inadvertently create a mix that plays back with phase cancellation problems or even the entire loss of some low frequency information. Even in cinemas with fixed installations done by professionals, the sub can be poorly set up. As a result, it is our recommendation that the LFE channel should be low-pass filtered at 80 - 120Hz. This should be considered even if the project is destined for release on SA-CD or DVD-Audio, despite the fact that the spec does not require such filtering. Because the optimum frequency to be used is program-dependent, such filtering should be done by ear; simply experiment with different frequencies while listening carefully. In most cases, selecting a frequency between 80 and 100Hz will produce the best results. Use the steepest filter available (24dB/octave or higher), and choose one that maintains the most accurate phase correlation. While monitoring during mixing through a bass managed system is imperative, if low pass filtering of the LFE channel is not possible or desired, it can be printed full range and the job left to the mastering engineer.

Quelle: Howard Massey et al., Recommendations For Surround Sound Production, © 2004 The National Academy of Recording Arts & Sciences, Inc.


[Beitrag von Tron_224 am 05. Okt 2017, 16:54 bearbeitet]
Mickey_Mouse
Inventar
#3 erstellt: 05. Okt 2017, 17:02
ist dir schonmal vorgekommen, dass der Pioneer während eines Films oder Albums/Stücks die Anpassung geändert hat? (also nach dem ersten "Paukenschlag" noch ein weiteres mal).
Tron_224
Hat sich gelöscht
#4 erstellt: 05. Okt 2017, 17:19
Darauf habe ich noch nicht geachtet, weil ich mir das per Tastendruck anzeigen lassen müsste (die Anzeige verschwindet nach ein paar Sekunden wieder). Damit ist normal nach dem Vorspann Sense. Mache ich aber bei Gelegenheit mal.

Was ich aber weiß, ist, dass er bei ein und demselben Stück leicht variiert, wenn man es neu startet (also z.B. 8 statt 7 ms bei Money For Nothing).

Also scheint er das wirklich irgendwie auszuwerten.
Testius
Stammgast
#5 erstellt: 06. Okt 2017, 08:04
Omg ich werd noch irre wenn ich sowas lese

Ich beschäftige mich seit ca. 2 Monaten damit ob ich nun den Onkyo 1100 oder den Pioneer 801 kaufen sollte und komme zu keinem Ergebnis. Da meine Anlage quasi rund um die Uhr läuft wenn ich zu Hause bin (Musik oder Film/Serie) möchte ich natürlich einen Receiver haben der in beiden Belangen top ist.

Wenn man so wie ich sehr großen Wert auf optimale Basswiedergabe legt, dann dürfte man wenn man Eure Beiträge in diesem Thread liest eigentlich gar keinen anderen Receiver kaufen dürfen als Pio, da er mit dieser Phasenkorrektur ein Alleinstellungsmerkmal hat. Einerseits.

Andererseits kann man nun im Pio-Thread lesen dass der Pio bei Trennung bei z.B. 80 HZ den LFE-Bereich zwischen 80-120 HZ quasi "verschluckt" und gar nicht mehr an die Subs weiterreicht. Auch kann man beim Pio ja nur eine einheitliche Trennfrequenz einstellen...und warum ich z.B. die Front Highs auf 80 HZ runterspielen lassen sollte erschließt sich mir nicht. Das hört sich für mich beides wiederum so gruselig an dass man daraus eigentlich ein klares Kauf-no-go für den Pio ableiten müsste, denn der Onkyo tut ersteres wohl nicht und letzteres kann man bei ihm ja Boxenpaar individuell (und in viel kleineren Einheiten) einstellen. Und während zwar jeder Receiver immer eine überragende Kritik bekommt bei den üblichen Verdächtigen wie areadvd , hat der Onkyo dort aber nun eine hervorragend-überragende Kritik erhalten...


Darf ich Euch Experten hier einmal fragen bitte für welchen der beiden Receiver ihr Euch entscheiden würdet?

Danke & LG


[Beitrag von Testius am 06. Okt 2017, 08:07 bearbeitet]
Tron_224
Hat sich gelöscht
#6 erstellt: 06. Okt 2017, 08:43
Durch die Rotstiftpolitik von Onkyo ist von Pioneer derzeit abzuraten, leider. Äußerlich sichtbare Anzeichen sind die FB und das nur noch einzeilige Display. Ein No-go in der Preisklasse (Pio 901 UVP 2.999 €). In dem entsprechenden Thread kann man nachlesen, dass die Zufriedenheit mit den aktuellen Modellen stark schwankt.

Das Bassmanagement von Pioneer wird stark kritisiert, ist aber ein Zugeständnis an eben jene Phasenkorrektur. Bei unterschiedlichen Trennfrequenzen würde man das nicht hinbekommen. Um die Phase an die Mains anzupassen, wird der Sub in Bezug auf die Übernahmefrequenz etwas verzögert. Dieses Delay ist frequenzabhängig. Somit hätte man für verschiedene Trennfrequenzen unterschiedliche Werte. Deswegen die Einschränkung. Es ist natürlich eine Bevormundung, denn man könnte dem Kunden die Wahl lassen, was der bessere Kompromiss ist.

Mit anderen Receivern nachbilden könnte man das, indem man eine globale Trennfrequenz einstellt und dann mit der „Entfernungseinstellung“ des Subs spielt. Bei Yamaha ist es so gelöst, dass mit der Entfernung auch die Phase des Subs festgelegt wird, allerdings nur für eine der eingemessenen Trennfrequenzen (welche?). Ändert man die TF nachträglich, muss man auch die Entfernung des Subs anpassen. Pioneer macht das automatisch. Den Effekt kann man durch Ausschalten nachprüfen, es ist deutlich hörbar. Dafür taugt der EQ nix, weil er nur bis 63 Hz geht. Da kann man aber ein Anti-Mode nehmen.

Die LFE-Kappung ist bei 80 Hz eher theoretischer Natur, darunter dagegen ein No-go.

Soweit OT.

Mit der LFE-Phasenkorrektur scheint Pioneer aber ein Alleinstellungsmerkmal zu haben. Die Funktion gibt es schon seit Jahren auch bei den kleineren Modellen, still und leise, schlecht beschrieben und vermarktet.

Daher ist es schade, dass es mit der Marke gerade so bergab geht. Konkurrenz belebt das Geschäft.

Letztendlich gibt es den perfekten Receiver nicht, sondern überall etwas zu bemängeln. Man muss dann schauen, was auf einen zutrifft und was nicht. Benötigt man unterschiedliche Trennfrequenzen, scheidet Pioneer aus, Punkt.

Der Onkyo scheint mir als einziges Modell der bekannten Marken kein herausragendes Merkmal zu haben. Denon hat XT32 und Auro, Yamaha die DSPs, Pioneer die Phasenkorrektur und Class D, Onkyo zwar inzwischen auch Class D, aber sonst?

Mein Fokus liegt auf einem knackigen Bass sowie einer räumlichen Wiedergabe durch präzise Laufzeitkorrektur (die letztendlich auch eher eine Phasenkorrektur ist, denn das Delay an sich hört man nicht). Außerdem passt der Pio mit der Full Band Phase Control die Phase der einzelnen Treiber von Mehrweg-LS an und gleicht so Weichen- und Aufstellungsfehler aus (ich müsste meine Fronts sonst leicht nach hinten neigen, je nach Sitzabstand und -höhe halt, das kann der Entwickler ja nicht wissen).

Bei anderen Prioritäten landet man schnell woanders.

Hilft Dir nicht wirklich, oder?
Klipsch-RF7II
Inventar
#7 erstellt: 06. Okt 2017, 09:18
Danke für die Schilderung, Tron.

Und da war im ganzen Text kein bisschen Off-topic.

Warum diese 7ms LFE Versatz in der von Mickey gezeigten Messung sind, weiss ich leider auch nicht. Aber es scheint ja wohl allgemein anerkannt zu sein, denn sonst würde Pio und auch das Topmodell von Denon da keine Abhilfe schaffen.

Interressant finde ich Deine Äusserung, dass der kleine Versatz imho dazu führt, das der Bass dünner klingt.

Meinereiner liebt einen knackigen präzisen Kickbass. Deshalb habe ich die Lautsprecher aus meinem Synonym und bin auch mit dem Elac Sub nicht unzufrieden. Beim Yamaha AVR habe ich den Bereich zwischen 100 und 200 Hz etwas angehoben, um den Kickbass ein wenig zu verstärken. Aber in diesem Bereich macht der Sub ja eh fast nichts mehr. Insofern reden wir im Grunde hier nur über Tiefbass und auch nur über den LFE, richtig?
Ich glaube, in dem Licht, dürfte die Laufzeitkorrektur beim Pioneer auch nur für den Tiefbass interressant sein und für Kickbass Enthusiasten wie mich keine grosse Rolle mehr spielen.
Tron_224
Hat sich gelöscht
#8 erstellt: 06. Okt 2017, 10:44
Auslöschungen funktionieren immer gegenseitig. Hier sprechen wir über den Übernahmebereich, der bei mir um die 80 Hz liegt. Insofern ragt das schon in den Kickbass hinein. Die Grenzen sind da fließend.

Man muss auch bedenken, dass ein Drumkick Frequenzen von 50 Hz bis etwa 4 kHz enthält. Liegen die 50 Hz auf dem LFE und der Rest auf den Mains, muss es nicht einmal zu Auslöschungen kommen, das Puzzle wird einfach nicht richtig zusammengesetzt.

Du kannst es ausprobieren, indem Du alle LS auf large stellst und dann mit der Entfernung des Subs spielst.

7 ms Verzug wären über 2 Meter zusätzlich (im Beispiel Dire Straits, bei anderen Scheiben ist es anders).

Ich denke, Du solltest es ausprobieren, um zu testen, ob es für Dich relevant ist.

Ein knackiger Bass schließt auch für mich den Kickbass ein
Mickey_Mouse
Inventar
#9 erstellt: 06. Okt 2017, 11:04
um auszuschließen, dass der AVR oder gar HDMI (kann ja eigentlich nicht, aber das Studio kann ja eigentlich auch nicht...) da rein pfuscht, habe ich nochmal an den analogen Ausgängen des Oppo gemessen (natürlich alle LS im selben Abstand konfiguriert) und es bestätigt den Versatz des LFE.

dabei ist diese "hübsche" Bild heraus gekommen. Dazu muss man noch sagen, die Pegel Skala ist hier nicht linear sondern logarithmisch in dB skaliert und der LFE ist jetzt oben statt unten. Man sieht hier sehr schön wie im linken Teil des Bildes die Signale nahezu spiegelbildlich sind ( -> Auslöschung).
allerdings ist interessant, dass sich das zum rechten Teil des Bildes ändert.



mir ist wirklich komplett unklar was da beim Abmischen passiert...

und noch eine andere Sache: aus irgendwelchen Gründen misst mir mein Yamaha den Subwoofer etwas mehr als 2m zusätzlich zur realen Entfernung und was das AM noch drauf packt ein, daher gleicht sich das hier wohl nahezu genau aus und der Fehler hier bei dieser SACD fällt nicht so sehr auf.
atmosenabled
Stammgast
#10 erstellt: 06. Okt 2017, 11:12
... der SW wird i.d.R. bei 0 oder 180 ° betrieben.

> Eine Verschiebung der Phase um 180 Grad bedeutet die Verschiebung einer Schallwelle um eine halbe Wellenlänge. Wenn man sich eine Schallwelle als Sinuskurve vorstellt, so wird diese auf ihrer Achse nach hinten verschoben. Eine Verschiebung um 180 Grad kommt einer Spiegelung der Welle auf ihrer Achse gleich. Letzten Endes handelt es sich mehr oder weniger um eine Zeitverzögerung der Schallwelle um bis zu einer halben Wellenlänge. Da die Wellen im Bassbereich mehrere Meter lang sein können, bedeutet eine Phasenverschiebung von wenigen Grad bereits einen Ausgleich von einigen Zentimetern bzw. eine Verzögerung um einige Millisekunden. <

Die eingebaute Verzögerung im LFE-Kanal kann also durchaus sinnvoll sein, da sie entweder zur Phase 0 oder 180 passt.
Und ich kann mir gut vorstellen, dass Audyssey und Co. Probleme beim Einmessen haben und deshalb eine nachträgliche Korrektur im AVR vorgesehen ist.


Es sei denn, man nehme Folgendes an:

> sind denn die Tontechniker komplett bescheuert und nicht in der Lage eine SACD zusammen zu mixen, bei der der DSD Stream vom LFE synchron zu den anderen Spuren ist?!? <
Tron_224
Hat sich gelöscht
#11 erstellt: 06. Okt 2017, 11:18
Die 2 m Versatz sind eben die Phasenangleichung an die Mains, also das, was Pioneer auf Knopfdruck im Hintergrund macht und dabei den Wert nicht anzeigt. So zumindest hat es Passat mal erklärt.

Schalte ich Phase Control (nicht die vom LFE) aus, dann muss ich die Entfernung in ähnlicher Größenordnung korrigieren. Ist also plausibel.

Da Du ja die Mains auf Fullrange laufen lässt, bräuchtest Du das eigentlich nicht, aber bei der BiA ist es gerade Glück im Unglück.

Normalerweise kämen die 2 m nochmals hinzu.

Also: reale Entfernung + Anti-Mode-Delay + Phase Mains + Phase LFE (nur für den, nicht für den ganzen Sub inkl. Bassmanagement).

Aber variiere ruhig noch mal.

Den LFE habe ich selber übrigens über die Entfernung nicht hinbekommen, nur über die Automatik, warum auch immer, trotz Umstellung auf large.

Sicher ist man hier mit nicht getrennten LS im Vorteil. Bei mir entfällt das, da ich alles an die Dipolsubs übergebe, die das besser können.
Mickey_Mouse
Inventar
#12 erstellt: 06. Okt 2017, 11:21

atmosenabled (Beitrag #10) schrieb:
... der SW wird i.d.R. bei 0 oder 180 ° betrieben.

das hat mit dem Thema gar nichts zu tun.
wir reden hier von Delay und nicht Phase!
ein Delay von 7ms wirkt sich bei 71Hz wie eine Phasenverschiebung von 180° aus aber nicht bei anderen Frequenzen.
das ist hier also "Zufall".
Testius
Stammgast
#13 erstellt: 06. Okt 2017, 11:38
Hi Tron_224,

doch das hat mir schon geholfen die ganze Sache noch besser zu verstehen, Danke dafür.
Kann ich bei Dir also herauslesen, dass Du den Pioneer vorziehen würdest?

Und @Mickey, was ist denn Deine Konsequenz aus der ganzen Sache, ich glaube Du bist ja ein Yamaha-Nutzer oder? Würdest Du, wenn Du ebenfalls vor einer Kaufentscheidung eines neuen AVs stündest, mit diesem neuen Wissen nun den Pio vor anderen Herstellern vorziehen?

LG & Danke für Info
soundrealist
Gesperrt
#14 erstellt: 06. Okt 2017, 12:08

Mickey_Mouse (Beitrag #1) schrieb:

ich habe die SACD Brothers in Arms (20th Anniversary) genommen und davon den Track Money for Nothing.

fällt jemandem eine Erklärung ein ob diese 7ms irgendwo anders als im Studio zustande kommen können? Der Pioneer arbeitet sicherlich mit PCM Daten, die CX-A mit nativen DSD, bei Pure-Direct kann eigentlich nichts dazwischen funken.
mir fällt tatsächlich nur als Erklärung ein, dass da irgendwelche Filter oder sonst was bei der "Produktion" nicht oder falsch berücksichtigt wurde.

wie gesagt, bei Filmen soll es das ja genauso geben (gute Beispiele?)...


Da Du die alte Dire-Straits-Aufnahme verwendet hast, hätte ich in der Tat eine mögliche Erklärung.

Der LFE macht im Prinzip ja nichts anderes, als unterhalb einer vordefinierten Frequenz einen eigenen Kanal für Bässe bereit zu stellen.

Wenn wir uns nun mal das Original-Masterband von Brothers in Arms betrachten, dann sind da zwar alle Instrumentalspuren einzeln drauf, aber keine für LFE. Schlicht und einfach deshalb, weil es in den 80ern so etwas überhaupt noch nicht gab.

Versucht ein Tontechniker nun, das alte Mehrkanal-Studiomaterial auf gängige, moderne Mehrkanaltechnik zu adaptieren, ist das Hinsichtlich der Instrumental- und Gesangsspuren sicherlich kein Problem, die mischt er einfach ab. Das eigentliche Problem ist bei alten Aufnahmen aber der LFE, da dieser ausschließlich tieffrequente Anteile enthält. Um einen LFE versorgen zu können, muß der Tontechniker also aus einem Summen-Monosignal sämtlicher Spuren die tiefen Frequenzen entweder komplett auf den LFE rüberziehen oder alternativ kopieren. Dies geschieht oftmals leider nur nach Gehör, ohne Messtechnik. Somit ist die Gefahr, daß hier etwas aus dem Ruder läuft, leider relativ hoch.

Schon allein aufgrund des nachträglich zu generierenden Timecodes. Wie schwiergig das tatsächlich ist, kann jeder in einem simplen Experiment selbst austesten: Einfach mal über zwei verschiedene Quellen zeitgleich ein Youtube-Video mit einem Metronom drauf starten. Am Anfang taktet noch alles einigermaßen synchron, aber spätestens nach mehreren Minuten hinkt die eine Wiedergabequelle der anderen hinterher. Klingt paradox, ist aber tatsächlich so. Und nun stellen wir uns diese Situation mal mit weich anzepzupften, nachklingenden Bassgitarren vor......

Bei aktuellen Aufnahmen wird direkt passend für die aktuellen Tonformate aufgenommen und alle Kanäle (also auch der LFE) greifen von vornherein auf einen gemeinsamen Timecode zurück, hier stellt sich das Problem erst gar nicht.


[Beitrag von soundrealist am 06. Okt 2017, 12:55 bearbeitet]
Klipsch-RF7II
Inventar
#15 erstellt: 06. Okt 2017, 12:26
Interressant. Werde wirklich mal meine Lieblings SACDs testen und ein wenig mit der Entfernung des Subs spielen (im hömopathischen Rahmen natürlich).

Die Brothers in Arms SACD hab ich auch.
Analog müsste das ja für alle Quellen/Datenträger mit LFE-Kanal gelten, also auch DVD-Audio, DVD und Bluray.


[Beitrag von Klipsch-RF7II am 06. Okt 2017, 12:26 bearbeitet]
Mickey_Mouse
Inventar
#16 erstellt: 06. Okt 2017, 12:45
das "soll" genauso für Filme gelten!!!

ich habe es halt mit einer SACD ausprobiert weil:
- die als Beispiel genannt wurde
- ich bei nativer DSD Übertragung und Verarbeitung im AVR am wenigsten Fehler erwartet habe
- ich eigentlich das Gegenteil beweisen wollte

@soundrealist
die Erklärung kann ich so nicht nachvollziehen. Egal woher man den LFE "herbei zaubert", der Umgang mit mehreren Tracks und die synchron zu halten ist doch das ganz kleine Einmaleins eines Tontechnikers.

@Testius
es gibt so viele Dinge bei AVR und die Yamaha sind nach meinem Geschmack allen anderen so dermaßen haushoch überlegen, dass es ein Pioneer auch mit Phase-Plus sehr schwer haben dürfte, das kann die Nachteile nicht aufwiegen
D&M hat mit Audyssey ein System das ein Antimode arbeitslos macht, dazu ist die Loudness mehrstufig und die LFC Funktion genial
Yamaha hat die DSP Programme (nie wieder ohne), das beste Dialog Management (Lift und Pegel), kann DSD nativ
Tron_224
Hat sich gelöscht
#17 erstellt: 06. Okt 2017, 12:59

Kann ich bei Dir also herauslesen, dass Du den Pioneer vorziehen würdest?


Eben nur mit Einschränkungen. Ich habe noch ein Vorgängermodell, würde aktuell aber gar nichts mehr von der Marke kaufen, Rotstift sei
Dank.

Ehrlich gesagt wüsste ich es aktuell nicht, denn irgendwas ist immer, aber das wird OT bzw. polarisiert das Thema auch. Denke nicht, dass Mickey einen Zentimeter Richtung Pioneer rückt, aber darum geht es ja auch nicht. Vielmehr ist die Frage, wie man das Beste aus den Aufnahmen rausholt, das hängt von vielen Faktoren ab, und ein Optimum scheint es nicht zu geben, da müsste man mehrere Geräte zusammenlöten, bildlich gesprochen. Wahrscheinlich bastelt sich MM bereits ein kleines Kästchen.

Wenn Du mit der Bedienung und der globalen TF klarkommst, dann gerne ein Vorgängermodell.

Und a propos Kästchen: In den Zeiten vor 3D-Ton hätte man hier den nanoAVR nehmen können.
soundrealist
Gesperrt
#18 erstellt: 06. Okt 2017, 13:06

Mickey_Mouse (Beitrag #16) schrieb:


@soundrealist
die Erklärung kann ich so nicht nachvollziehen. Egal woher man den LFE "herbei zaubert", der Umgang mit mehreren Tracks und die synchron zu halten ist doch das ganz kleine Einmaleins eines Tontechnikers.



Aber nur dann, wenn er von Anfang an auf einen gemeinsamen Timecode zurckgreifen kann. Habe meinen Vorpost eben noch mal entsprechend erläuternd ergänzt.
Es ist eben nicht egal, wo der Techniker den LFE herzaubert. Bei zwei verschiedenen Timecodes muß in möglichst kurzen Intervallen permanent "nachkorrigiert" bzw. angeglichen werden.

Genau das macht sicherlich auch die Automatik in dem von Dir angesprochenen Gerät.


[Beitrag von soundrealist am 06. Okt 2017, 13:09 bearbeitet]
Mickey_Mouse
Inventar
#19 erstellt: 06. Okt 2017, 13:21
ich verstehe nicht was du meinst.

es gibt doch nur Tracks mit gemeinsamen Timecode und der LFE wird doch "irgendwie" davon abgeleitet und dabei geht der Timecode doch nicht verloren.

oder anders herum: auf dem original Band gibt es auch keine Surround Kanäle!
die müssen doch auf "ähnliche" Weise generiert werden wie der LFE und dort sind 7ms eine Welt, die den Sinn einer Mehrkanal SACD komplett ad absurdum führen würde.
soundrealist
Gesperrt
#20 erstellt: 06. Okt 2017, 13:38

Mickey_Mouse (Beitrag #19) schrieb:

es gibt doch nur Tracks mit gemeinsamen Timecode und der LFE wird doch "irgendwie" davon abgeleitet und dabei geht der Timecode doch nicht verloren.
oder anders herum: auf dem original Band gibt es auch keine Surround Kanäle!
die müssen doch auf "ähnliche" Weise generiert werden wie der LFE und dort sind 7ms eine Welt, die den Sinn einer Mehrkanal SACD komplett ad absurdum führen würde.



Den Denkfehler, den Du hierbei machst: ab dem Moment, wo Du etwas aufnahmetechnisch auskoppelst (also eine neue Aufnahme machst), generierst Du zwangsläufig einen weiteren/zusätzlichen Timecode für genau diese eine Sache (hier der LFE).

Auch wenn Du dann nachträglich über alles "das Mäntelchen" eines dritten Timecode legst, ändert das nichts an Timecode 1 und Timecode 2.

Das ist so, wie wenn Du versuchst, ein nagelneues sauberes und ein altes schmutziges Glas in einen großen sauberen Glaskasten zu stellen, in der Hoffnung, das schmutzige Glas wäre dadurch sauber. Nur wenn das schmutzige möglichst gewissenhaft gereinigt wird, hat man die Chance, daß es es das Niveau des neuen, sauberen Glases erreicht.


Mickey_Mouse (Beitrag #19) schrieb:

oder anders herum: auf dem original Band gibt es auch keine Surround Kanäle!
.


hier kannst Du aber alle Masterbandkanäle problemlos gemeinsam in einem einzigen Vorgang passend abmischen, somit hast Du bei der neuen Aufnahme einen gemeinsamen Timecode. Aber was genau dann noch fehlt: der LFE-Kanal, der muß ja erst mal "gefaket" werden.


Mickey_Mouse (Beitrag #19) schrieb:
isind 7ms eine Welt, die den Sinn einer Mehrkanal SACD komplett ad absurdum führen würde.


Wenn man das mal auf alte Aufnahmen bezieht, bei denen der LFE nachträglich generiert werden muß, geschieht das sogar auf gewisse Weise. Allerdings sollte es in der heutigen Zeit natürlich passende Software o.ä. geben, die bei der Nachbearbeitung eingesetzt wird. Aber das ist natürlich zusätzlicher Aufwand, den möglicherweise tatsächlich der eine oder andere Produzent scheut, nach dem Motto "im untersten Tieftonbereich merkt das eh keiner". Vermutlich bist Du einer der wenigen, denen dieser Aufnahmefehler überhaupt aufgefallen ist.

Daß so etwas kompletter Murx (oder soll ich besser sagen "Beschiss" ) ist, steht völlig außer Frage:



Mickey_Mouse (Beitrag #19) schrieb:
sind 7ms eine Welt, die den Sinn einer Mehrkanal SACD komplett ad absurdum führen würde.


Da sprechen wir bereits über massiven Nachhall


[Beitrag von soundrealist am 06. Okt 2017, 14:27 bearbeitet]
Tron_224
Hat sich gelöscht
#21 erstellt: 06. Okt 2017, 14:32
Aber wie ist das denn bei neuen Abmischungen?

Hierzu nochmal das Beispiel Star Trek Beyond in Dolby Atmos. Das legt doch nahe, dass die Verzögerung bewusst eingebaut wird, um irgendwas zu umgehen. Denn unkorrigiert klingt es weniger brachial, das hatte ich damals extra getestet.

Kann mir kaum vorstellen, dass man durch eine kleine Schlamperei eine Abwertung beim Ton riskiert. Also muss es Absicht sein.

So wird ja auch der LFE 10 dB unter Pegel abgemischt, um mehr Reserven zu haben (ein Relikt aus den Anfangszeiten). Der AVR muss das dann ausgleichen, bis hierhin also kein Problem.

Bei der Phase könnte das ja ähnliche Gründe haben, nur welche?
soundrealist
Gesperrt
#22 erstellt: 06. Okt 2017, 15:03
Prädestiniert sind tatsächlich ältere Aufnahmen, bei neueren sollte das - wie Du sehr richtig schreibst - eher nicht der Fall sein.

Denn hier besteht die Möglichkeit, daß jede Spur (zumindest die bassenthaltenden) verdoppelt bzw. zweispurig aufgenommen wird. Eine für die Vollfrequenzinformation, die zweite "frequenzkastriert", um hinterher beim (gleichzeitigen) Downmix einen wunderbaren LFE nach Maß konfigurieren zu können.

Bei Aufnahmen mit extrem vielen Spuren vervielfacht das aber natürlich die ursprüngliche Datenkapazität. Möglicherweise ein Grund für den einen oder anderen, den Rotstift anzusetzen, in dem der LFE tatsächlich nachträglich (zumindest teilweise) draufpatscht wird. Zeitlich geht es natürlich auch wesentlich schneller, anstelle eines sorgfältigen LFE-Downmixes nachträglich mal eben aus einem Mono-Signal sämtlicher oder einzelner Spuren Tieftonanteile rauszufiltern. Und Zeit ist ja bekanntlich Geld. Die Risiken für die Mehrkanalqualität sind dann aber natürlich die selben wie beim Remastering von alten Aufnahmen.

Natürlich wünschen wir uns alle, daß der Tontechniker größtmögliche Sorgfalt walten lässt, um anspruchsvolle Hörer nicht zu verärgern. Und im Normalfall versucht ein gutes Studio ja auch, so zu arbeiten. Aber oft steht da auch ganz einfach ein gewisser wirtschaftlicher Druck dahinter. Daher ist es auch bei neuen Aufnahmen nie völlig auszuschließen, daß gepfuscht wird. Ich würde es mal so ausdrücken wollen: Bei alten Aufnahmen muß der LFE "rekonstruiert" werden, bei neuen kann er es (als Sparlösung).


Tron_224 (Beitrag #21) schrieb:

Hierzu nochmal das Beispiel Star Trek Beyond in Dolby Atmos. Das legt doch nahe, dass die Verzögerung bewusst eingebaut wird, um irgendwas zu umgehen. Denn unkorrigiert klingt es weniger brachial, das hatte ich damals extra getestet.



Das "bewusst" resultiert hier (auf Basis von allem vorbeschriebenem) wohl weniger in der Absicht, etwas zu umgehen, als vermutlich tatsächlich einem nicht sorgsam genug "rekonstruiertem" LFE. Unkorrigiert hast Du dann genau dieses "Delay", was den Bass in Folge dessen komplett aufweicht und die Wucht (Brachialität) aus der Wiedergabe nimmt


[Beitrag von soundrealist am 06. Okt 2017, 15:29 bearbeitet]
Tron_224
Hat sich gelöscht
#23 erstellt: 06. Okt 2017, 15:26
Vielleicht noch mal zur Klarstellung: Star Trek Beyond hat ein LFE-Delay von 8 ms.

Da gehe ich davon aus, dass dahinter System steckt, wenn es bei komplett neuen Produktionen so gemacht wird. Ich habe hier fast nur aktuelle Produktionen ab ca. 2010.

Davon haben mindestens einige, wenn nicht gar viele dieses Delay.

Mich wundert auch, wie wahrscheinlich alle hier, dass man so wenig darüber liest, obwohl es vorkommt.
soundrealist
Gesperrt
#24 erstellt: 06. Okt 2017, 15:33

Tron_224 (Beitrag #23) schrieb:
Vielleicht noch mal zur Klarstellung: Star Trek Beyond hat ein LFE-Delay von 8 ms.

Da gehe ich davon aus, dass dahinter System steckt,


Eher Pfusch. Denn sonst hätte ja jede neue Aufnahme dieses Delay von ganz exact 8 ms.


Tron_224 (Beitrag #23) schrieb:


Mich wundert auch, wie wahrscheinlich alle hier, dass man so wenig darüber liest, obwohl es vorkommt.


Im Tieftonbereich merkt man das leider nicht immer sofort, viele meinen vermutlich, es müsse so (bassschwach) sein, wie es ist.
Auf die Idee, tatsächlich nachzumessen, muß schließlich auch erst mal jemand kommen und die Möglichkeit dazu haben.
Ein Umstand, der Pfusch in gewisser Weise natürlich Tür und Tor offnet. Wie gesagt: "money talks"

Ein gutes Beispiel, was nichts mit Hifi zu tun hat, aber beschreibt, wie Mechanismen in der Wirtschaft oft funktionieren.
Kennst Du die kleinen, fernostgefertigten Buddelschiffe für 5€ aus dem Souvenierladen ? Schief aufgeklebte Segel, Fahnen usw...
Kaum einer merkt es, weil schlicht und einfach die Referenz fehlt, wie es richtig aussehen muss. Warum sollte der Hersteller also mehr Zeit investieren oder mehr Geld in die Hand nehmen, so lange sich niemand darüber mokiert ? Da würde er ja gegen die eigenen, finanziellen Interessen handeln.


[Beitrag von soundrealist am 06. Okt 2017, 16:07 bearbeitet]
Mickey_Mouse
Inventar
#25 erstellt: 06. Okt 2017, 16:34

soundrealist (Beitrag #20) schrieb:
Den Denkfehler, den Du hierbei machst: ab dem Moment, wo Du etwas aufnahmetechnisch auskoppelst (also eine neue Aufnahme machst), generierst Du zwangsläufig einen weiteren/zusätzlichen Timecode für genau diese eine Sache (hier der LFE).

sicher?

ich kenne keine "Profi Software" und habe selbst nichtmal "Amateur Kram" hier zur Verfügung, aber ich stelle mir das so vor, man:
a) nehme Track1 bis N, alle mit einem Timecode, ist ja ein Master.
b) erstelle einen Track N+1 und kopiere die Summe aus a) da hinein, Timecode bleibt erhalten, bzw. Track N+1 ist ja "in sync".
c) lasse einen beliebigen Tiefpass über Track N+1 laufen
d) passe durch Hochpass Track 1 bis N nach Geschmack an
soundrealist
Gesperrt
#26 erstellt: 06. Okt 2017, 18:21
Das würde dann funktionieren, wenn Du den Timecode mitkopieren könntest.....

Aber ob das tatsächlich geht ? Hast mich ehrlich gesagt gerade etwas ins grübeln gebracht.....


[Beitrag von soundrealist am 06. Okt 2017, 18:22 bearbeitet]
Mickey_Mouse
Inventar
#27 erstellt: 06. Okt 2017, 19:23
wie willst du denn sonst die Surround Kanäle "erstellen"?
es ist ja nicht so, dass wenn sagen wir mal 6 Tracks "Ur-Material" zur Verfügung stehen Track:
- 1&2 -> L
- 2&3 -> R
- 4 -> C
- 5 -> SL
- 6 -> SR
zugeordnet werden, da werden ja auch alle/mehrere Tracks zusammen gemischt.
soundrealist
Gesperrt
#28 erstellt: 06. Okt 2017, 20:15
Das zuordnen der Kanäle ist ja auch nicht das Problem. Vielmehr habe ich Zweifel, ob sich der Timecode kopieren lässt.
So lange alles auf dem selben TC läuft, ist das kein Problem. Problematisch wird es halt immer dann, wenn ein anderer dazu kommt (eben in Form einer neuen Aufnahme, die nachträglich"angestückelt" wird.)


[Beitrag von soundrealist am 06. Okt 2017, 20:21 bearbeitet]
std67
Inventar
#29 erstellt: 06. Okt 2017, 20:56
wenn das so ein bekanntes Problem warum wird das dann im Studio nicht gleich richtig gemacht?
soundrealist
Gesperrt
#30 erstellt: 06. Okt 2017, 21:14
Siehe #22
Tron_224
Hat sich gelöscht
#31 erstellt: 06. Okt 2017, 23:32
soundrealist
Gesperrt
#32 erstellt: 06. Okt 2017, 23:34
Na guck mal an.....
Tron_224
Hat sich gelöscht
#33 erstellt: 06. Okt 2017, 23:36


Mit dem Rest bin ich nicht einverstanden, recherchiere aber noch. Pfusch will mir noch nicht so recht einleuchten.
Klipsch-RF7II
Inventar
#34 erstellt: 06. Okt 2017, 23:42
Also es wurde jetzt einmal 7ms und einmal 8ms Verzug genannt. Bewegt sich der Verzug immer in diesem Rahmen?
Tron_224
Hat sich gelöscht
#35 erstellt: 06. Okt 2017, 23:44
Nein, ich hatte auch schon mal 2 ms und über 10 ms abgelesen. Neben 0 ms natürlich.
soundrealist
Gesperrt
#36 erstellt: 06. Okt 2017, 23:50
Bin für alles offen

Die einzige Theorie, die mir einfäfft, welche die "so gewollt"-These einigermaßen plausibel machen könnte, wäre imo, wenn die Produzenten diesen (aus HiFi-Sicht) definitiv nachteiligen Effekt selbst toll finden.

Aber ich glaube eher an die Murx-Theorie. Schon allein wegen den Unterschieden in der Ausprägung..... aber auch der Tatsache, daß Hersteller eine solche Korrekturautomatik einbauen. Denn zurückkorrigiert wird ja logischerweise nur etwas, das da nicht hingehört


[Beitrag von soundrealist am 07. Okt 2017, 00:39 bearbeitet]
Tron_224
Hat sich gelöscht
#37 erstellt: 07. Okt 2017, 00:08
Oder es soll einfach nur so wiedergegeben werden wie eigentlich beabsichtigt.

Warum sollte ein AVR-Hersteller eine Anti-Murks-Funktion einbauen? Es gibt sicher noch mehr Pfusch, da würde man doch kein Ende finden. Endlich jedes Jahr eine tolle neue Funktion, um das aktuelle AVR-Modell schmackhaft zu machen.

Desweiteren dürfte es kein Problem sein, beim Mastering eine Software zu verwenden, die das wieder ausbügelt. Wenn das mein AVR kann, dann erst recht die Software im Tonstudio.
soundrealist
Gesperrt
#38 erstellt: 07. Okt 2017, 00:25
Anti-Murx-Funktionen (oder sagen wir lieber "Problemlöser) gibt es doch ohne Ende:

Subsonic-Filter gegen tieffrequente Störungen, Hochtonregler um bei Nachrichtensprechern zischende "S"-Laute abzumildern, Loudness zur gehörrichtigen Frquenzanpassung, DSP-Systeme zur Unterstützung von Raumoptimierungsmaßnahmen, Schutzschaltungen gegen die Folgen von unachtsamen Umgang mit Lautsprecheranschlüssen, Mono-Tasten bei FM-Tunern zur Rauschminimierung, Antiskating-Einrichtung bei Plattenspielern gegen unerwünschte Fliehkräfte, Dimmertasten gege eine zu grelle Displaybeleuchtung, Reduzierungsfunktion gegen Bildrauschen, Laufzeit- und Phasenkorrektur in AVRs oder DSPs, schützende Einschaltverzögerungen bei Verstärkern.... undundund !. Für (fast) jedes Problem bietet die Industrie Lösungen an. Warum also nicht auch eine für hinterherhinkende LFEs ?


Tron_224 (Beitrag #37) schrieb:


Desweiteren dürfte es kein Problem sein, beim Mastering eine Software zu verwenden, die das wieder ausbügelt. Wenn das mein AVR kann, dann erst recht die Software im Tonstudio.


Sehe ich ganz genau so. Und gibt es in der Praxis sicherlich auch (Timecode-Corrector oder was auch immer). Dennoch ist das keine automatische Garantie dafür, daß auch tatsächlich immer korrekt (bzw. damit) gearbeitet wird.. Die Gründe habe ich ja bereits genannt.

Ein Vergleich: Wenn Du beispielsweise mehrere defekte Geräte zuhause rumstehen hast, dann würdest Du doch auch nicht auf die Idee kommen und sagen: Das muß so sein, weil ich so viele davon habe. (Obwohl, ich überlege gerade... wie war das doch gleich noch mal mit der "vorprogrammierten Lebensdauer ? )


[Beitrag von soundrealist am 07. Okt 2017, 00:35 bearbeitet]
Mickey_Mouse
Inventar
#39 erstellt: 07. Okt 2017, 01:07

Tron_224 (Beitrag #37) schrieb:
Desweiteren dürfte es kein Problem sein, beim Mastering eine Software zu verwenden, die das wieder ausbügelt. Wenn das mein AVR kann, dann erst recht die Software im Tonstudio.

genau aus diesem Grund gibt es diesen Thread überhaupt

ich fand/finde es eben auch irgendwie absolut absurd, dass im AVR das Timing im Größenbereich von mehreren ms korrigiert werden muss statt das im Studio gerade zu ziehen.

wie gesagt, ich dachte ja, dass es vielleicht durch das Bass-Management im AVR entstehen könnte (obwohl es dann eigentlich auf ganz wenige ms beschränkt sein müsste. Wenn man "irgendwas" "irgendwie" bei 40Hz trennen würde und bei der Trennfrequenz von einer Phasenverschiebung von 45° ausgeht, dann wären das 3ms.
aber LFE Trennung ist ja i.d.R. bei 80Hz oder gar 120Hz und selbst bei 80Hz liegen wir damit schon bei nur noch 1,5ms.

wobei ich gerade anfange zu grübeln, ob wir es wirklich mit einem Delay oder doch einer Phasenverschiebung zu tun haben?!?
bei der Brothers in Arms handelte es sich eigentlich immer um ungefähr dieselbe Frequenz.

ich muss mal nach Live, Die, Repeat suchen. Da gab es doch diese herrliche (Sub) Bass Attacke in Oktaven gestaffelt. Ich vermute aber mal, dass das ausschließlich per LFE ausgeben wird.

weil das ist ja noch so ein "Pfusch"
WENN man schon einen LFE einsetzt, dann sollte der doch auch den gesamten Bass Bereich abdecken! Bei der Brothers in Arms ist es ja aber sogar so, dass auf den Stereo Kanälen viel höherer Bass Pegel vorhanden ist als auf dem LFE. Erst bei der logarithmischen Darstellung fällt das nicht ganz so auf.

so und während ich das schreibe fällt mir noch eine Sache ein, um die komplett durch zu denken ist es aber schon zu spät.
das Bass Signal im LFE ist deutlich schwächer als auf den Stereo Kanälen, wir reden hier über locker -10dB oder mehr
was ist, wenn da wirklich irgendwelche Deppen im Studio am Werk waren und z.B. folgendes gemacht haben:
- wir nehmen das Stereo Signal und filtern es "mit ganz wenig Hz" um daraus den LFE zu generieren
- da bleibt kaum etwas übrig, also hauen wir +10dB oder so drauf, damit es richtig kracht, wir haben jetzt ja einen LFE, juhu
dann sind wir ja im Sperrbereich des Filters und damit zwischen 45° und 90° Phasenfehler.

sollten die tatsächlich so blöd sein und sich das LFE Signal mit einem Filter bei 30 oder 40Hz ohne Phasenkorrektur generieren?
und eben mal bei 30, 40 oder vielleicht auch 50Hz
Dann würde das passen
soundrealist
Gesperrt
#40 erstellt: 07. Okt 2017, 01:30
Wie war das noch gleich mit dem Pferd und der Apotheke ?
Klipsch-RF7II
Inventar
#41 erstellt: 07. Okt 2017, 08:33
@Mickey

Wenn das kein systematischer Fehler, sondern stümperhafter Pfusch wäre, dann müsste es eine grosse Streuung bei den Versätzen geben. Das schreit eigentlich mal nach einer systematischen Überprüfung von Datenträgern, bzw. einer Datenbank mit allen Messwerten.

@All

Wenn ich nun von Tron's Äusserung ausgehend, er hätte Versätze von 0ms bis 10ms bemerkt, einen mittleren Versatz von 5ms annehme und dies über die Entfernung des eingemessenen Subwoofers korrigieren möchte, dann muss ich die Entfernung des Subs um 1,7m erhöhen, richtig?


[Beitrag von Klipsch-RF7II am 07. Okt 2017, 08:46 bearbeitet]
Testius
Stammgast
#42 erstellt: 07. Okt 2017, 08:45
Ich muss mich hier doch noch einmal zwischendrängeln:

@alle nicht-Pio und nicht-Sony AV-Receiver - Besitzer ohne Phasenkorrektur: "Vermisst" ihr denn etwas in eurem Bass, schließlich müsst ihr ja unter diesen unkorrigierten Verzögerungen "leiden"?

Thx für info
Klipsch-RF7II
Inventar
#43 erstellt: 07. Okt 2017, 08:48
Meine Frau ist gleich ausser Haus. Dann werde ich genau das testen.

(Das Bessere ist des Guten Feind)

Habe jetzt mal die "Wooshie Finger" Szene am Ende von Kung Fu Panda eingelegt, die Szene mit AB repeat in einer Endlosschleife abgespielt und bei der Subwoofer Entfernung zwischen den eingemessenen 3.1m und 4.8m hin und her geschaltet. So nach 20x hin und her schalten, meinen ich und mein Sohn, der Bass wäre bei 4.8m einen Ticken stärker. Nur sehr wenig Unterschied und könnte demnach auch Einbildung sein. Vielleicht kann den Film einer von Euch mal durchmessen wegen LFE Versatz? Merci!


[Beitrag von Klipsch-RF7II am 07. Okt 2017, 09:19 bearbeitet]
Testius
Stammgast
#44 erstellt: 07. Okt 2017, 09:33
Ska-dusschhhhhh!

Genau diese Szene nutz ich auch immer wieder gerne zum Testen
soundrealist
Gesperrt
#45 erstellt: 07. Okt 2017, 11:37

Klipsch-RF7II (Beitrag #41) schrieb:
@Mickey

Wenn das kein systematischer Fehler, sondern stümperhafter Pfusch wäre, dann müsste es eine grosse Streuung bei den Versätzen geben.


Solche Streuung gibt es ja auch tatsächlich. Jetzt kann man vermutlich genüsslich darüber diskutieren, was "groß" in diesem Fall tatsächlich bedeutet und wie wie ausgeprägt ein solcher Versatz tatsächlich von Aufnahme zu Aufnahme abweicht.

Das alles ändert aber nichts an der Tatsache, daß die LFE-Verzögerung nun mal grundsätzlich unterschiedlich mit der Aufnahme einher geht und es keine "starren" Werte hierfür gibt.

Und das Pfusch bei Aufnahmen alles andere als ungewöhnlich ist erleben wir alle doch mehr oder weniger ständig. Das fängt schon bei hundsgewöhnlichen Audioaufnahmen an, wo ein Tontechniker Nachhilfe für den korrekten Umgang und den Einsatz eines Equalizers benötigt.

Auch DVDs machen da keine Ausnahme. Das mit dem verzögerten LFE ist beispielsweise noch gar nicht sim Gegensatz zu einer Scheibe, auf der "die Reise zum Mittelpunkt der Erde II drauf ist. Ausgewiesen als "HD-Ton" laufen hier Dialoge grundsätzlich auf den Rears mit und teilweise stellen sich sogar regelrechte "Vocoder-Effekte" ein. Da ist das "Pseudo-3D-Bild noch das kleinste Problem.

In einer Zeit, wo traditionelle Werte schon bei Geräten immer mehr unter die Räder kommen und vieles beginnt, sich zum "Paarmalexundhopp-Produkt" zu entwickeln (gestützt durch Blödmarktkompetenz), darf es nicht verwundern, wenn die Industrie der Mehrheit der Konsumenten "Qualitätsgleichgültigkeit" unterstellt und entsprechend billig und minderwertig produziert. Hauptsache Blingbling und Bumbum. Bitte lasst uns nicht vergessen, daß wir User mit berechtigtem Anspruchsdenken leider nicht die Mehrheit der Konsumenten repräsentieren. Ganz im Gegenteil: Wir müssen uns mit dem begnügen, was i.d.R. für die breite Masse (möglichst gewinnträchtig) vom Kartonstapel unter den Arm geklemmt wird. Eine solche Entwicklung macht vor der Musik- und Filmindustrie ganz sicher nicht halt.


[Beitrag von soundrealist am 07. Okt 2017, 11:41 bearbeitet]
Tron_224
Hat sich gelöscht
#46 erstellt: 07. Okt 2017, 19:52
@ Klipsch: Nenn mal ein paar Filme, vielleicht findet sich dann ein gemeinsamer, und ich schau, welches Delay mein AVR anzeigt.

Hab meist Actionfilme.

Bei Star Trek Beyond in der OV wie gesagt deutlich hörbar, der Unterschied.
Klipsch-RF7II
Inventar
#47 erstellt: 07. Okt 2017, 20:37
Da fallen mir viele ein:

Live die repeat
Star Trek Into the darkness
Mad Max Fury Road
13 Hours
Lone Survivor
R.E.D.
Oblivion
Sicario
Deepwater Horizon
The Accountant
Die glorreichen Sieben....
Mickey_Mouse
Inventar
#48 erstellt: 07. Okt 2017, 23:31
der Punkt ist doch, dass das Problem ausschließlich nur dann auftritt, wenn der Bass per "Gießkannen Prinzip" über alle LS verteilt wird und dabei Mist gebaut wurde.

eigentlich sollte man doch erwarten, dass wenn in einem Film ein "Low-Frequency-Effect" auftritt, der dann auch ausschließlich auf den LFE Kanal gemischt wird. Dann kann es mit den anderen Kanälen keine Auslöschungen geben und ein echtes "Lip-Sync-Problem" wird es im Bereich von 7ms und Frequenzen unterhalb von 120Hz wohl kaum geben.

mal ganz ehrlich, welchen Sinn macht der LFE denn sonst? Dann kann man den auch weg lassen und gleich dem AVR das Bass-Management komplett überlassen.

Fazit: egal wie man es dreht oder wendet, das Problem ist so wie ich das sehe ganz klar "Pfusch in den Studios"!
Tron_224
Hat sich gelöscht
#49 erstellt: 08. Okt 2017, 00:44
Ja, wenn ein Effekt nur auf den LFE gemischt wird, dann dürfte das Delay so ziemlich egal sein.

Nur bei zusammengesetzten Effekten mit Anteilen auf dem LFE und einem anderen Kanal kann es zu Auslöschungen kommen, wobei es sich hier hauptsächlich um den Übernahmebereich (der Trennung im Studio, nicht am AVR) handeln dürfte.

Ich habe nicht jeden Film getestet, aber jeder getestete Film wies ein Delay auf. Und wir reden hier ja nicht über alte Schinken ...

Allerdings brauchte es oft seine Zeit, bis er eine Stelle gefunden hatte. Nicht jeder Paukenschlag ist also maßgeblich. Das bedeutet, dass es in Filmen weite Teile gibt, in denen es nicht relevant ist. Bei Musik war es dagegen auf Anhieb deutlich hörbar.


Klipsch-RF7II (Beitrag #47) schrieb:


Live die repeat - 5 ms
Star Trek Into the darkness - 13 ms
Mad Max Fury Road - 11 ms
13 Hours
Lone Survivor - 4 ms
R.E.D.
Oblivion - 3 ms
Sicario - 2 ms
Deepwater Horizon - 8 ms
The Accountant
Die glorreichen Sieben....
Klipsch-RF7II
Inventar
#50 erstellt: 08. Okt 2017, 09:12
Da lässt sicher leider auch kein Pattern erkennen. Auch gleiche Filmverleihs haben stark unteschiedliche Versätze.Scheint eher rein zufällig zu sein, was da passiert. Gut, könnten auch bei gleichem Filmverleih unterschiedliche Tonstudios sein.
soundrealist
Gesperrt
#51 erstellt: 08. Okt 2017, 12:42

Mickey_Mouse (Beitrag #48) schrieb:


Fazit: egal wie man es dreht oder wendet, das Problem ist so wie ich das sehe ganz klar "Pfusch in den Studios"!


Dieser Satz bringt den kompletten Thread auf den Punkt.

Man kann lange darüber philosophieren, woher dieser LFE-Versatz kommt. Tatsache ist, daß er existent ist und keinem starren Muster folgt bzw. aufnahmespezifisch erfolgt


[Beitrag von soundrealist am 08. Okt 2017, 12:43 bearbeitet]
Suche:
Gehe zu Seite: Erste 2 Letzte |nächste|
Das könnte Dich auch interessieren:
Ton verzögert hinter Bild
incmc am 16.07.2008  –  Letzte Antwort am 17.07.2008  –  3 Beiträge
LFE?
olafcm am 18.12.2004  –  Letzte Antwort am 18.12.2004  –  5 Beiträge
LFE Kanal
Celica231278 am 16.04.2013  –  Letzte Antwort am 16.05.2016  –  21 Beiträge
Stereo mit LFE Kanal
M.bo am 04.10.2009  –  Letzte Antwort am 05.10.2009  –  6 Beiträge
Frequenzbereich LFE
selector24 am 26.07.2005  –  Letzte Antwort am 27.07.2005  –  8 Beiträge
LFE Kanal
arx am 28.06.2006  –  Letzte Antwort am 11.03.2014  –  37 Beiträge
Sound per Toslink nach Pause verzögert = normal?
dlh007 am 12.11.2013  –  Letzte Antwort am 13.11.2013  –  5 Beiträge
Unzufrieden mit LFE Pegel
padddy am 25.02.2007  –  Letzte Antwort am 22.03.2007  –  25 Beiträge
Bassmanagement/LFE-Pegel
crazycreek am 07.04.2007  –  Letzte Antwort am 07.04.2007  –  2 Beiträge
LFE bzw. .1 Kanal
trgmanu am 29.10.2013  –  Letzte Antwort am 31.10.2013  –  23 Beiträge
Foren Archiv

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.721 ( Heute: 11 )
  • Neuestes Mitgliedgune
  • Gesamtzahl an Themen1.551.048
  • Gesamtzahl an Beiträgen21.536.777