Klangunterschiede bei DA Wandlern

+A -A
Autor
Beitrag
MusikGurke
Hat sich gelöscht
#1 erstellt: 11. Okt 2005, 21:56
Tag zusammen.

mich würde mal interessieren wie klangunterschiede bei cd playern zustande kommen.

blindtests zwischen laufwerken enden meist in einer blamage der hörer. daher stelle ich einfach mal die these auf, dass da wandler alleine für den klang verantwortlich sind.

was macht die klanglichen unterschiede bei diesen?

wenn ich mir die daten eines DA wandler anschaue, wie hier ein denon wandler der bei ebay gerade auf knapp über 50 euro kommt... und vermutlich im bezahlbaren bereich bleibt.


ALPHA-Processor (Adaptive Line Pattern Harmonized Algorithm)
Frequenzgang 2-20.000Hz
Signalrauschabstand 112dB
Dynamikbereich 100dB
Klirrfaktor 0,0025%
Kanaltrennung 105dB
32; 44,1; 48kHz


nun... das scheint für unser ohr zu reichen. was will man da noch verbessern? selbst preiswertere einstiegs dvd player haben mitlerweile öfters:


96-kHz/24-Bit-Audio-DAC


wie das aktuelle einstiegsmodell von marantz.

wie kommt es, dass blindteste bei da wandlern nicht ganz so peinlich ausfallen, wie bei den laufwerken?

wobei der ein oder andere sicherlich schon probleme haben dürfte, einsteiger cd player und high end auseinanderzuhalten. selbst bei mp3 und orginal sind ja schon ziemlich viele überfordert...

ich bitte um erklärungsansätze... falls noch jemand nen blindtest parat hat...?
reboot
Stammgast
#2 erstellt: 11. Okt 2005, 22:13
Es gibt hierzu eine Veröffentlichung von Herrn Fritz Fey (TC Electronic). Irgendwo gibt es auch einen Link zu dieser Veröffentlichung hier im Forum - weiß leider nicht mehr wo.

Der Artikel behandelt das Übersteuern von D/A-Wandlern durch die Signale von der CD, die durch zu optimistisches Abmischen an die 0 dBFS Marke passieren.

Durch dieses Abmischen an die 0 dBFS Marke können sogenannte Intersample Peaks entstehen, die über!! der 0 dBFS Marke liegen.

Dieses können CD Player (besser deren D/A-Wandler) mal etwas besser mal eher schlechter ab. Das beeinflußt den Klang!

Bei + 1,25 dBFS steigen die Verzerrungen der Geräte auf -24 bis -59 dB, bei + 3,0 dBFS gar bis -17 bis -29 dB.
-> das wird hörbar

Wie kan das verhindert werden? Ganz einfach, die CD sollten nicht so laut (z.B. -3 dBFS) abgemischt werden. Leider sind woll die meisten (neueren) Pop-CDs hiervon betroffen. Danke liebe Musikindustrie.

P.S. im Artikel stand auch das neuere D/A-Wandler mit diesem Umstand mehr Probleme haben, da das Chip-design diesem Umstand nicht betrachtet.

gruß
reboot
-----------
Der gute Klang fängt mit der Aufnahme und deren Weiterverarbeitung bis zur CD an.


[Beitrag von reboot am 11. Okt 2005, 22:17 bearbeitet]
richi44
Hat sich gelöscht
#3 erstellt: 12. Okt 2005, 08:21
Was reboots beschreibt, mag zutreffen. Nur muss das dann schon eine lausige Firma sein, die solche CDs auf den Markt bringt. Es gibt mittlerweile genügend Limiter, welche bei 0 dBFS dicht machen, ohne selbst zu klirren. Und diese Dinger sind bezahlbar bis ausgesprochen günstig (für Studioverhältnisse) Da ist ein rechtes Mik schon mindestens so teuer.

Meiner Ansicht nach ist es nicht der Wandlerchip, der grosse Unterschiede macht, sondern nachfolgende Filter und vor allem der Analogbereich. Wie sonst könnte man auf die Idee kommen, die ausgezeichneten technischen Daten eines Wandlers mit einer Röhre zu verschlechtern? Doch wohl nur, weil diese "Laterna Magica" (magische Funzel) auf magische Art und Weise den Klirr so verschlechtert, dass man meint, etwas hochwertigeres vor sich zu haben.
Sobald nämlich mit steigender Lautstärke der Klirr ansteigt, empfindet das Gehör diesen Klirr als zusätzlichen Lautstärke-Anstieg. Damit wird eine höhere Dynamik vorgegaukelt.

Als weiteres Beispiel: Zu Beginn der CD-Zeit waren CDs im Klang härter und kälter als LP. Wenn man eine CD über ein Gerät abspielte, welches einen röhrenähnlichen Klirr erzeugte, wurde die Wiedergabe wärmer. Und wenn man zusätzlich noch leichtes Rauschen beimischte, wurde die Wiedergabe weicher (alles selbst ausprobiert). Und weil die LP diese Unzulänglichkeiten aufwiesen, wurde bei der Abmischung darauf Rücksicht genommen. Da fiel dann die CD halt zu hart aus.
Um den weichen Analogsound zu erzeugen, setzte ein Schweizer Hersteller eine Röhre ein, die allerdings nicht in Betrieb war, sondern nur als optischer Gag geheizt wurde. Die ganze Klirrerei und Rauscherei wurde mit einem DSP auf digitaler Ebene gerechnet. Das Teil wurde allerdings nie in Serie gebaut.
MusikGurke
Hat sich gelöscht
#4 erstellt: 12. Okt 2005, 16:45
erstmals danke für die rege anteilnahme...

das mit dem übersteuern von cds halte ich für möglich, wie mein vorredner aber schon andeutete: die meisten toningeneure können mit guter software die cd voll aus, aber nicht übersteuern. halte ich persönlich eher für unwahrscheinlich.

die idee mit den filter hat was... werd heut abend wohl nochmal googeln...
reboot
Stammgast
#5 erstellt: 12. Okt 2005, 18:12

richi44 schrieb:
Nur muss das dann schon eine lausige Firma sein, die solche CDs auf den Markt bringt. Es gibt mittlerweile genügend Limiter, welche bei 0 dBFS dicht machen, ohne selbst zu klirren....


Fritz Fey hat in seinem Artikel Messungen dargelegt, das gerade wohl diese Limiter die Tonings. dazu verleiten so hart an die 0 dBFS zu gehen.
Betroffen waren eher neueren CDs (meist POP), bei den alten CDs trat das Problem nicht auf.

Zugegeben, der Artikel stammt von Anno 2003, nun mehr 2 Jahre später werden ...

... ich halte das Problem nach wie vor für aktuell.

sicherlich gibt es auch besonnenere Mastering-Ingenieure, die uns wohlklingende CDs bescheren, einige davon habe ich zu Hause, Ihr sicherlich auch.

---

Der Analogbereich hat denke ich auch einen sehr großen Einfluß,
alle Player bei denen hier mit Umsicht entwickelt wurden klingen irgendwie besser (in der Summe der Geräte)

--> müßte dann eine Anlage, die erst vor den Lautsprechern D/A-wandelt dann nicht im Vorteil sein, oder habe ich ein Denkfehler?


[Beitrag von reboot am 12. Okt 2005, 18:13 bearbeitet]
MusikGurke
Hat sich gelöscht
#6 erstellt: 12. Okt 2005, 18:34
dann würde der verstärker allerdings einsen und nullen verstärken. imho nicht wirklich sinnvoll. der lautsprecher ist auf analoges angewiesen.
quaternione
Stammgast
#7 erstellt: 12. Okt 2005, 18:41
wie wäre es mit der naheliegenden Vermutung, daß wie überall ein höherer Materialaufwand bessere Ergebnisse liefert?
Angefangen von selektierten Bauteilen, soliden Gehäuden etc.
Q.
pelmazo
Hat sich gelöscht
#8 erstellt: 12. Okt 2005, 18:45

reboot schrieb:
Herrn Fritz Fey (TC Electronic)


Der Korrektheit halber:

Fritz Fey gehört zum Studiomagazin und nicht zu TC Electronics. Der Artikel, den Du ansprichst, ist auf der Webseite des Studiomagazins zugänglich:
http://www.studio-ma...20von%200%20dBFS.pdf

Die Verbindung zu TC Electronic geht über deren Mitarbeiter Thomas Lund, der Fey auf die Fährte gesetzt hat.
pelmazo
Hat sich gelöscht
#9 erstellt: 12. Okt 2005, 18:52

quaternione schrieb:
wie wäre es mit der naheliegenden Vermutung, daß wie überall ein höherer Materialaufwand bessere Ergebnisse liefert?
Angefangen von selektierten Bauteilen, soliden Gehäuden etc.
Q.


Das ist aber doch gar nicht so! Bessere Ergebnisse erzielt man oft genug auch mit weniger Materialaufwand, indem man stattdessen mehr nachdenkt.

"Viel hilft viel" ist üblicherweise eben kein besonders sinnvoller Ansatz. Das erinnert mich ein wenig an den Spruch: "Hubraum ist durch nichts zu ersetzen, außer mehr Hubraum". Wenn diese einfache "Weisheit" wahr wäre, dann würde man in den besten und teuersten Autos Schiffsdiesel finden.

Das heißt nicht daß ich was gegen solide Gehäuse hätte, bloß klingen die so gebauten Geräte nicht automatisch besser. Oft wird da mehr für's Auge als für's Ohr gebaut.
reboot
Stammgast
#10 erstellt: 12. Okt 2005, 18:57
@pelmazo
danke
-- gut wenn sich Leute auskennen
quaternione
Stammgast
#11 erstellt: 12. Okt 2005, 18:57
Na ja,

Aufwand muß nicht unbedingt Gewicht heißen. Die investierte Arbeitszeit sprich Forschung ist vermutlich noch teurer.

Vergleich hinken immer, ein Schiffsdiesel im Auto wäre vermutlich ein wenig unhandlich. Ansonsten: die ersten Motoren die Mercedes nach dem Krieg in seine PKWs eingebaut hat, waren halbierte LKW Motoren. Der Grund war allerdings nicht Performanz sondern dei Not, etwas anderes gab es nicht.

Q
MusikGurke
Hat sich gelöscht
#12 erstellt: 12. Okt 2005, 19:00

Aufwand muß nicht unbedingt Gewicht heißen. Die investierte Arbeitszeit sprich Forschung ist vermutlich noch teurer.


ich habe weiter oben die daten von einem 50 euro da wandler angegeben. was willst du da mit forschung noch fürs ohr tun?


Vergleich hinken immer, ein Schiffsdiesel im Auto wäre vermutlich ein wenig unhandlich.


ein hubschraubermotor passt sogar in ein motorrad (wurde schon erfolgreich ausprobiert). ich denke, hier würde sich ein lösung finden. wenn es sinn machen würde...
reboot
Stammgast
#13 erstellt: 12. Okt 2005, 19:02

MusikGurke schrieb:
dann würde der verstärker allerdings einsen und nullen verstärken. imho nicht wirklich sinnvoll. der lautsprecher ist auf analoges angewiesen.



durch die einsen und nullen werden doch die Frequenzen und Pegel beschrieben. Aus einem CD-Player kommt doch aus den Digitalstrom auch ein Analogessignal.

Wenn dieses nicht so klein wäre wie beim Cinchausgang sondern eben "lauter".

Wie arbeiten eigendlich Digital-Endstufen? Kenn sich jemand aus?
quaternione
Stammgast
#14 erstellt: 12. Okt 2005, 19:09
also langsam wird dieser Vergleich absurd...

Jetzt frage ich mich nur noch - Eurer Logik folgend - warum im Schiff keine Autodiesel eingebaut sind, da diese doch besser sind als Schiffsdiesel(denn sonst wären diese ja im Auto)

au mann...
Q


[Beitrag von quaternione am 12. Okt 2005, 19:11 bearbeitet]
pelmazo
Hat sich gelöscht
#15 erstellt: 12. Okt 2005, 19:17

quaternione schrieb:
Jetzt frage ich mich nur noch - Eurer Logik folgend - warum im Schiff keine Autodiesel eingebaut sind, da diese doch besser sind als Schiffsdiesel(denn sonst wären diese ja im Auto)


Unserer Logik folgend? Das hast Du unsere Logik aber ziemlich mißverstanden.

Das Beispiel sollte zeigen, daß Hirn einschalten mehr bringt als mit Material klotzen, und daß solche Pauschalrezepte wie "mehr Materialaufwand = besser" eben nicht hinhauen. Und daß eine gute Lösung für Fall A nicht automatisch eine gute Lösung für Fall B ist.
reboot
Stammgast
#16 erstellt: 12. Okt 2005, 19:18
Schiffdiesel in Autos einzubauen hat bei HiFi einen Namen:
Voodoo

Das richtige am richtigen Ort, aber gut d'rüber nachdenken, eine feine gute Schaltung entwickeln

einige HiFi-Firmen zeigen dieses, und sind damit mit gutem Klang dabei.
pelmazo
Hat sich gelöscht
#17 erstellt: 12. Okt 2005, 19:19

reboot schrieb:
Wie arbeiten eigendlich Digital-Endstufen? Kenn sich jemand aus?


Da gibt's ein eigenes Forum dafür:
http://www.sodfa.de/

Da wirst Du geholfen!
reboot
Stammgast
#18 erstellt: 12. Okt 2005, 19:24
@pelmazo
nochmal danke


MusikGurke schrieb:
dann würde der verstärker allerdings einsen und nullen verstärken.


=> einen "lowpass"


MusikGurke schrieb:
der lautsprecher ist auf analoges angewiesen.


=> und bekommt es
richi44
Hat sich gelöscht
#19 erstellt: 13. Okt 2005, 09:24
@ pelmazo #8
Der Beitrag von Fritz Fey ist soweit interessant und es ist bekannt, dass Aufnahmen bereits am Tonpult übersteuert werden.

@ all
Und wenn dann analoge Instrumente mit einer Anstiegsteit von 10ms verwendet werden (oder gar VU-Meter) ist eine Peak-Übersteuerung unumgänglich. Auch Modulometer mit einer Anstiegszeit von 100 Mikrosekunden können nicht mehr alle Peaks erfassen.
Aber erfahrungsgemäss wird da einfach mal frischfröhlich in den roten Bereich ausgesteuert, was ja nicht sein dürfte.
Dabei kann es, vor allem mit relativ schnellen Limitern, zu Begrenzungen kommen, die aus einem Sinus einen "Rechteck" machen. Wenn ein Limiter verwendet würde, der die Regelspannung über längere Zeit mittelt und so den Pegel aus der Übersteuerungszone auf Dauer tiefer halten würde, wäre das Problem einer einzenen "Rechteckbildung" (es sind ja meist etwas entschärfte Rechtecksignale) praktisch inexistent. Nur wird damit wieder ein Rest an Dynamik erhalten, die ja nicht gewünscht ist und die der Lautheit schadet.
Wenn aber durch die Limitierung ein Rechteck entsteht, das kann noch durchaus im Analogbereich sein, haben wir einen Klirr von bis zu 30 %, auch wenn durch entsprechende Pegelung des nachfolgenden AD-Wandlers 0 dBFS noch nicht erreicht ist.

Als Beispiel: Ein alter Urei-Analoglimiter hat bei längster Ansprech- und Abfallzeit und einer Kompression von 1:20 / 14 dB bei 100 Hz rund 0,5% Klirr. Bei schnellsten Zeiten folgt die Regelspannung praktisch dem Sinus und bildet daher bei der Limitierung ein Rechtecksignal, was einen Klirr von rund 20% zur Folge hat.
Wird also beim Abmischen mit einem schnell reagierenden Limiter gearbeitet, so entsteht ein Klirr, der sich nicht ungeschehen machen lässt. Nachgeschaltete weitere "Klangverbieger" geben der Aufnahme noch den Rest.

Ich gebe zu, ich habe mich mit der digitalen "Archidektur" bisher nicht so sehr befasst. Aber aus einigen Stellen des erwähnten Beitrags muss ich ableiten, dass Wandler Probleme haben, wenn von einem Sample zum nächsten grosse Unterschiede bestehen. Dies führt offensichtlich zu dem erwähnten Transientenklirr, wenn ich das richtig interpretiere. Demnach scheint es so zu sein, dass irgendwie die zweite Wandlung auf der ersten aufbaut und folglich nicht der neue Wert als etwas eigenständiges ausgegeben wird, sondern quasi als Differenz zum ersten Wert. Bei kleinen Schritten ist folglich keine grosse Rechnerei nötig, bei grossen Sprüngen dagegen schon.
Das würde manches erklären.

Dazu aber ein paar Überlegungen, erst mal auf der analogen Ebene: Wenn man den Leistungs-Inhalt eines Sinussignals betrachtet, so ist dieser (Effektiv-Spannung und -Strom betragen jeweils 1/Wurzel 2 x Spitzenwert) P=U^x (1/V2) x I^x (1/V2).
Bei einem Rechtecksignal ist der Spitzenwert angenommen gleich wie beim Sinussignal, der Leistungsinhalt ist aber P=Uss x Iss.
Betrachtet man das ganze auf der digitalen Ebene, so ist die Angabe, 0 dBFS sei überschreitbar mit Sicherheit falsch, weil mehr als alle Bits kann man nicht verwenden. Aber wenn man mit einem normalen Peakmeter den Pegel betrachtet, so wird zwar der Spitzenwert angezeigt, sofern es sich um eine längere Signaldauer handelt, bei einzelnen Impulsen aber ist das nicht der Fall. Und in vielen Fällen wird der Leistungsinhalt berücksichtigt. In so einem Fall ist die angezeigte Spannung eines Rechtecksignals höher als jene eines Sinus bei gleichem ss-Pegel. Und in Tat und Wahrheit ist der Rechteck ja auch lauter (höhere Leistung) als der Sinus.

Das ganze auf den Wandler angewendet: Wenn das Signal begrenzt wird, ob durch Wandlerübersteuerung oder vorgängig durch Limiter, entsteht Klirr und eine höhere effektive Lautstärke (neben der physiologischen höheren Lautheit). Und es kann jetzt noch das Problem des "aufbaues auf dem vorherigen Pegel" hinzukommen. Wenn da ein Wert falsch ist, weil mit null Bit oder allen 16 Bit nicht gerechnet wurde, pflanzt sich so ein Fehler fort.
Dass DA-Wandler so funktionieren könnten, ist eine Annahme von mir, die sich darauf stützt, dass alte Wandler, die mit Sicherheit jeden Sample separat ausgegeben haben, weit weniger Probleme zeigen als neuere.

Was eigentlich undenkbar ist, sind Probleme mit den hohen Signalpegeln, die bei der DA-Wandlung entstehen sollen. Es ist mit einem OPV problemlos möglich, ein Sinussignal von 8V effektiv auszugeben, wenn die Speisespannung bei den heute üblichen +/-15V liegt.
Ausserdem sollte das gewandelte Signal bereits im Chip des Wandlers so bemessen sein, dass es dem Anwendungsfall entsprechend kein Problem darstellen kann.
richi44
Hat sich gelöscht
#20 erstellt: 13. Okt 2005, 11:31
Noch ein Nachtrag.
Ich habe mir die Sache nochmals überlegt und bin zu folgendem Schluss gekommen, was die nachfolgende Grafik verdeutlichen soll:

Angenommen, die obere Zeichnung zeige einen Sinus mit 11,025kHz und die roten, vertikalen Linien wären die "Messzeiten", mit welchen der AD-Wandler das Signal abtastet, den Momentanwert speichert und in digitaler Form ausgibt.
Die roten Punkte zeigen den Momentanwert, der vom Sinussignal bei der Messung erreicht wird. Verbindet man diese roten Punkte waagerecht und senkrecht, so ergibt sich daraus ein Rechtecksignal (blau), das im Moment rund 70% des maximalen Sinussignals erreicht.

Die Konsequenz:
Das Sinussignal könnte, wenn es genau 45 Grad phasenversetzt zum Samplingsignal steht, 3 dB höher sein als das angenommene 0 dBFS- Digitalsignal. Wenn also bei der Pegelmessung nicht wirklich die Bit-Konstellation ausgewertet wird, sondern das Analogsignal am Wandler-Eingang Peak gemessen wird, könnte der Eindruck entstehen, es gäbe mehr als 0dBFS. Dies aber immer unter der Annahme, dass der Wandler "Momentaufnahmen" liefert und die Phasenverschiebung genau die 45 Grad betragen.
Wenn man in Gedanken die roten Striche nach links oder rechts verschiebt, ergeben sich andere Kurvenformen und andere Pegel.
Damit ist mal klar, dass die mehr als 0dBFS nicht wirklich existieren und es ist auch klar, dass aus einem 11 kHz Sinus ein 11 kHz Rechteck mit - 3dB Spitzenpegel (und folglich gleichem Leistungsinhalt) entsteht.
Wenn man nun einen modernen DA-Wandler verwendet, um dieses Signal in die Analogform zurück zu verwandeln, so verwendet dieser dank Oversampling Filter niedriger Ordnung aber hoher Frequenz. Das Ausgangssignal ist demnach mit Sicherheit mehr rechteck- als sinusförmig und damit ist der hohe Klirr erklärt, der aber unhörbar bleibt, da bei einem Rechteck die erste Oberwelle ja 33 kHz wäre und somit ausserhalb unseres Wahrnehmungsvermögens.
Allerdings kann man dieses Spiel auch mit tieferen Frequenzen machen, wo auch noch ein gewisser Rechteckrest bleibt, dessen Oberwellen allenfalls in den hörbaren Bereich fallen.

Das untere Bild zeigt eigentlich die gleiche Konstellation, nur sind hier nicht scharfe Zeitschnitte für die Messung zuständig, sondern Zeitfenster (rote Rechecke), innerhalb welchen der Spitzenpegel gemessen und digitalisiert wird. Hier spielt die Phase praktisch keine Rolle (ausgenommen die kurze, messfreie Zeit) und das Digitalsignal entspricht pegelmässig peak immer dem Sinussignal. Hier gibt es das Phänomen nicht, dass das Analogsignal 3dB grösser sein könnte als das Digitalsignal.
Ausserdem entsteht nicht nur ein Rechteck, sondern eine Treppe, welche eine andere spektrale Zusammensetzung hat als der reine Rechteck und somit sind allfällig messbare Klirranteile sicher ausserhalb der Hörgrenze, auch bei tieferen Analogfrequenzen, und generell ist der Klirr tiefer.

Man überlege sich mal, was bei einer Sinusfrequenz von 22,05kHz im ersten Fall passiert: Je nach Phasenlage ist die Messung am Nullduchgang oder beim Scheitelpunkt und entsprechend ist das Ausgangssignal um 96dB tiefer als das Eingangssignal oder es ist gleich dessen Peakwert.
Oder das Analogsignal wäre 11,02Hz. Damit ergibt sich eine "Schwebung" zwischen der Samplingfrequenz und dem Analogsignal. Das Ausgangssignal wäre dann entweder ein Rechteck mit -3dB Peak oder eine Treppe mit 0dB Peak (Leistungsinhalt bleibt gleich). Und das würde vom einen in den anderen Zustand 5 mal in der Sekunde wechseln.

Ein solches Signal "könnte" klanglich variieren, obwohl seine ersten, entstehenden Oberwellen bereits ausserhalb
des Hörbereichs liegen. Aber es könnte allenfalls mit anderen Frequenzen zu Intermodulationen kommen, die hörbar sind. Hier wären die alten DA-Wandler ohne Oversampling und mit ultrasteilen Filtern im NF-Bereich wiederum im Vorteil, zumindest messtechnisch, wobei solche Filter durch die entstandenen Frequenzen zum Nachschwingen angeregt werden, was auch wieder Auswirkungen hat.

Wenn man also den Artikel des Herrn Fey etwas genauer unter die Lupe nimmt, so ist die Problematik nicht in der mehr als 0dBFS-Konstellation zu suchen, denn die gibt es nicht, sondern in der Frage, wie der AD-Wandler aufgebaut ist. Im Studiobereich gibt es sehr verschiedene Gebilde, mit sehr unterschiedlichen Klangergebnissen. Genaueres erfährt man selten, aber es ist denkbar, dass die billigen (Soundkarte lässt grüssen) "Momentanaufnahmen" herstellen, die extrem unzulänglich sind, während teurere mit Zeitfenstern arbeiten und so die Phasenproblematik entschärfen.
Und dass es besonders Pop-CD sind, welche diese Problematik aufzeigen (unter dem Motto Hop und Ex), die vielfach als Master ein "Eigengebäck" der Band besitzen oder sonst aus einem Discounterstudio stammen, belegt eigentlich die Ansicht, dass der AD-Wandler noch viel wichtiger ist als der DA. Nur entzieht sich ersterer unseres Einflusses.
pelmazo
Hat sich gelöscht
#21 erstellt: 13. Okt 2005, 11:33
@richi44

Deine Betrachtungen kann ich noch ein Wenig ergänzen, vielleicht wird dann auch Fey's Artikel klarer.

Signale über 0dBFS sind auch in der digitalen Ebene möglich. Es ist nicht schwierig, ein solches Signal digital zu erzeugen. Vielleicht das einfachste Beispiel ist folgendes:

Nimm an, Du hättest im Digitalsignal jeweils 2 aufeinanderfolgende Samples am "oberen" Anschlag, also positiver Maximalwert, danach zwei Samples am "unteren" Anschlag, also negativer Maximalwert. Danach das Ganze von Vorn. Bei 48kHz Abtastrate hätte dieses Signal eine Frequenz von 12kHz, da es sich nach 4 Samples wiederholt. Es kann auch keine Oberwellen haben, weil die 2. Harmonische mit 24kHz schon außerhalb der durch das Nyquist-Kriterium gesetzten Grenze liegt. Es muß sich also um einen 12kHz-Sinus handeln, und wenn man sich den aufmalt sieht man, das die Spitzen deutlich über den digital darstellbaren Maximalwert hinausgehen. Ein D/A-Wandler, der korrekt arbeitet, müßte also einen 12kHz-Sinus mit 3dBFS daraus machen. Wenn der D/A-Wandler ohne Oversampling arbeitet und das analoge Rekonstruktionsfilter über genügend Headroom verfügt, dann wird auch genau das Richtige herauskommen.

Die allermeisten D/A-Wandler arbeiten heutzutage aber mit Oversampling. Die Delta-Sigma-Wandler sogar mit 64-fachem Oversampling oder mehr. Das heißt es werden bereits auf der digitalen Seite Zwischen-Abtastwerte ausgerechnet. Nehmen wir einmal 2-fach Oversampling bei unserem Beispielsignal an. Zwischen jedem der gegebenen Abtastwerte wird genau mittig ein weiterer Abtastwert berechnet. Man sieht leicht, daß diese neu berechneten Abtastwerte entweder im Nulldurchgang des Sinus liegen, oder auf der negativen oder positiven Spitze.

Und hier kommt das Problem: Für die Abtastwerte auf der Spitze braucht man einen erweiterten Zahlenbereich, da sie jenseits des normalerweise digital darstellbaren Maximums liegen. Wenn der Entwickler des digitalen Oversamplingfilters das nicht berücksichtigt hat, dann ergibt sich an dieser Stelle ein Überlauf, der unerwünschte Auswirkungen haben kann.

Selbst wenn der Entwickler das berücksichtigt hat, muß jetzt immer noch der danach folgende D/A-Wandler mit dem erweiterten Zahlenbereich umgehen können, ansonsten erfolgt dort eine Begrenzung. Meines Wissens ist das in sehr vielen Fällen nicht der Fall, so daß dort in vielen Fällen die Ursache für die von Fey gefundenen Verzerrungen zu suchen wäre.
pelmazo
Hat sich gelöscht
#22 erstellt: 13. Okt 2005, 11:42
Hallo richi

Unsere Beiträge haben sich überschnitten


richi44 schrieb:
Damit ist mal klar, dass die mehr als 0dBFS nicht wirklich existieren und es ist auch klar, dass aus einem 11 kHz Sinus ein 11 kHz Rechteck mit - 3dB Spitzenpegel (und folglich gleichem Leistungsinhalt) entsteht.


Nein, das ist ein Trugschluß. Es entsteht kein Rechteck, denn dieses hätte Frequenzanteile oberhalb der Nyquist-Frequenz, und müßten vom Rekonstruktionsfilter unterdrückt werden. Es entsteht in Deinem Beipiel wieder der Sinus mit der richtigen Phase.


Wenn man nun einen modernen DA-Wandler verwendet, um dieses Signal in die Analogform zurück zu verwandeln, so verwendet dieser dank Oversampling Filter niedriger Ordnung aber hoher Frequenz. Das Ausgangssignal ist demnach mit Sicherheit mehr rechteck- als sinusförmig und damit ist der hohe Klirr erklärt, der aber unhörbar bleibt, da bei einem Rechteck die erste Oberwelle ja 33 kHz wäre und somit ausserhalb unseres Wahrnehmungsvermögens.


Du scheinst zu vergessen das das Oversamplingfilter im Grunde selbst eine Art Rekonstruktionsfilter ist und damit nicht einfach Abtastwerte wiederholt, sondern Zwischenwerte liefert wie sie auch von einem entsprechenden Analogfilter durchlaufen würden.
MusikGurke
Hat sich gelöscht
#23 erstellt: 13. Okt 2005, 14:19
die erklärungsansätze werden langsam auch für mich einigermaßen glaubhaft, die resultierenden da wandler unterschiede sollten damit so klein sein, wie sie bei diversen hörsessions für mich auch waren.

wobei ich die anspielung auf die filter weiter oben bisher am interessantesten finde... damit könnte man wirklich am klangbild rumpfuschen...
richi44
Hat sich gelöscht
#24 erstellt: 13. Okt 2005, 17:19

Nimm an, Du hättest im Digitalsignal jeweils 2 aufeinanderfolgende Samples am "oberen" Anschlag, also positiver Maximalwert, danach zwei Samples am "unteren" Anschlag, also negativer Maximalwert. Danach das Ganze von Vorn. Bei 48kHz Abtastrate hätte dieses Signal eine Frequenz von 12kHz, da es sich nach 4 Samples wiederholt.


Dass sich daraus ein Sinus bildet, der Peak 3 dB grösser ist als ein einmaliger Peak für einen Sample ist klar und entspricht auch dem, was ich im Prinzip gesagt habe, nur habe ich das ganze aus einem Sinus gebildet. Was also vom Sinus, der einen "Rechteck" mit -3dB generiert, möglich ist, geht auch umgekehrt.
Das hat aber nichts mit 0dBFS zu tun, denn dies ist die Angabe, dass alle Bit in einem Sample verkauft sind und nichts weiter.



Dieses Bild aus dem angegebenen Beitrag zeigt doch das Klirrspektrum eines Mischpult-Kanals und es bedeutet, dass noch Klirranteile im Bereich von 80kHz auftreten. Es ist die Frage, ob und wie an diesem Punkt gefiltert wurde. Wenn Filter vorhanden wären, die bei 20 kHz dicht machen, gäbe es die Klirrspektren nicht in dieser Form.
Und meine Überlegungen beziehen sich auf den AD-Wandler!
Wenn diesem eben die 11,025 kHz angeboten werden und er macht die erwähnten Momentaufnahmen, so zeichnet er auf der digitalen Ebene einen Rechteck auf.
Jetzt müsste man hergehen und solche Rechtecke über die zu testenden DA-Wandler wiedergeben. Es müsste eigentlich ein Sinus von 11 kHz zum Vorschein kommen, je nach nachgeschaltetem Filter. Die Frage ist einfach, wie hoch ist der Restklirr dieses Sinus.
Wenn wir aber einen andern AD-Wandler verwenden, so entsteht digital die gezeigte Treppe mit einer näheren "Sinusverwandtschaft" und damit am gleichen DA-Wandler ein anderes Klirrspektrum.

Ein Vorteil der modernen Wandler ist doch der Einsatz weniger steiler Filter. Aber diese können Fehler, die eigentlich aus der AD-Wandlung kommen, eben diese Rechtecksignale, weniger gut und klirrfrei wieder in Sinussignale zurückverwandeln. Alte DA-Wandler mit steilen Filtern haben gar keine andere Wahl, als den Klirr zu "vernichten".
Ich erinnnere an die Stelle "Der Test" im Beitrag. Hier heisst es, dass beispielsweise 11,025kHz als Ton verwendet wurde, der einen Pegel von +3dBFS erzeugen soll, dass der entstandene Klirr, gemessen mit einem Spektrum bis 80 kHz bei -17 bis -29dB lag. Was soll eine solche Messung, wenn erstens diese Frequenz keine Oberwelle generieren kann, da solche ausserhalb des Nyquist-Kriteriums angesiedelt ist? Da könnte sich doch gar kein Klirr bilden. Ausser das Filter ist halt doch so breitbandig, dass Frequenzen in dieser Höhe noch aus dem DA-Wandler raus kommen und folglich auch messbar sind.


Und hier kommt das Problem: Für die Abtastwerte auf der Spitze braucht man einen erweiterten Zahlenbereich, da sie jenseits des normalerweise digital darstellbaren Maximums liegen. Wenn der Entwickler des digitalen Oversamplingfilters das nicht berücksichtigt hat, dann ergibt sich an dieser Stelle ein Überlauf, der unerwünschte Auswirkungen haben kann.

Selbst wenn der Entwickler das berücksichtigt hat, muß jetzt immer noch der danach folgende D/A-Wandler mit dem erweiterten Zahlenbereich umgehen können, ansonsten erfolgt dort eine Begrenzung. Meines Wissens ist das in sehr vielen Fällen nicht der Fall, so daß dort in vielen Fällen die Ursache für die von Fey gefundenen Verzerrungen zu suchen wäre.


Das ist die einzige Aussage, die ich übernehmen würde. Allerdings ist das doch ein Armutszeugnis, wenn ich quasi aus einem 16 Bit Wandlersystem ein 18 Bit (oder mehr) mache und dann wieder nur einen 16 Bit DA einsetze.
Ausser ich mache das ganze als Werbegag und "schmeiss" die zwei neu gewonnenen Bit in die Tonne.

Folglich könnte man die obige Aussage als DA-Wandlerkriterium nehmen, aber gleichzeitig müsste man auf AD-Wandlern bestehen, die mit Zeitfenstern messen und daher nicht so falsche digitale Muster erzeugen wie jene mit "Momentaufnahme".
pelmazo
Hat sich gelöscht
#25 erstellt: 13. Okt 2005, 19:42

richi44 schrieb:
Dass sich daraus ein Sinus bildet, der Peak 3 dB grösser ist als ein einmaliger Peak für einen Sample ist klar und entspricht auch dem, was ich im Prinzip gesagt habe, nur habe ich das ganze aus einem Sinus gebildet. Was also vom Sinus, der einen "Rechteck" mit -3dB generiert, möglich ist, geht auch umgekehrt.


Korrekt.


Das hat aber nichts mit 0dBFS zu tun, denn dies ist die Angabe, dass alle Bit in einem Sample verkauft sind und nichts weiter.


Nein, das ist nicht ganz richtig. 0dBFS ist der Pegel eines Sinussignals, dessen Spitzenwerte gerade noch digital darstellbar sind. Es so zu definieren wie Du es annimst würde das Maß phasenabhängig machen, wie Du ja selber schreibst. Damit wäre der direkte Bezug auf den Pegel nach der D/A-Wandlung dahin.


Dieses Bild aus dem angegebenen Beitrag zeigt doch das Klirrspektrum eines Mischpult-Kanals und es bedeutet, dass noch Klirranteile im Bereich von 80kHz auftreten. Es ist die Frage, ob und wie an diesem Punkt gefiltert wurde. Wenn Filter vorhanden wären, die bei 20 kHz dicht machen, gäbe es die Klirrspektren nicht in dieser Form.


Auch korrekt. Mir ist noch nicht einmal klar ob die Messung an einer Digitalschnittstelle oder nach einem D/A-Wandler stattfand. Der Punkt des Artikels dreht sich um D/A-Wandler, also nehme ich Letzteres an. Ein solches Verhalten würde ich erwarten wenn ein hohes Maß von Oversampling im D/A-Wandler verwendet wurde, also z.B. ein Delta-Sigma-Wandler. Hier ist das analoge Rekonstruktionsfilter am Ausgang so abgestimmt, daß auch weit höhere Frequenzen als 20kHz durchgelassen werden, weil das digitale Oversamplingfilter sich um die niedrigeren Komponenten schon gekümmert haben sollte. Wenn das aber "mißlungen" ist weil das Oversampling-Filter arithmetisch übergelaufen ist, dann wäre die mögliche Folge solch ein Klirrspektrum.


Und meine Überlegungen beziehen sich auf den AD-Wandler!
Wenn diesem eben die 11,025 kHz angeboten werden und er macht die erwähnten Momentaufnahmen, so zeichnet er auf der digitalen Ebene einen Rechteck auf.


Jein. Du hättest recht wenn es sich beim verwendeten A/D-Wandler um einen einfachen Wandler ohne Oversampling handeln würde. In der Praxis findet man aber auch hier vorwiegend starkes Oversampling. Es wäre dann also schon die Quantifizierungsstufe am Eingang übersteuert, bevor ein digitaler Abtastwert zustande kommt.

Im Übrigen halte ich es für gefährlich, von einem "digitalen Rechteck" zu reden. Das sieht nur so aus wenn man die Abtastwerte gedanklich oder zeichnerisch linear miteinander verbindet. Diese Interpretation ist aber falsch, weil sie keiner gültigen Rekonstruktion der Abtastwerte entspricht.


Jetzt müsste man hergehen und solche Rechtecke über die zu testenden DA-Wandler wiedergeben. Es müsste eigentlich ein Sinus von 11 kHz zum Vorschein kommen, je nach nachgeschaltetem Filter. Die Frage ist einfach, wie hoch ist der Restklirr dieses Sinus.


Wenn der Filter richtig dimensioniert ist, dann muß ein Sinus ohne Restklirr herauskommen. Wenn Restklirr resultiert, dann sind Frequenzen durchgelassen worden, die jenseits des Nyquist-Limits liegen.


Wenn wir aber einen andern AD-Wandler verwenden, so entsteht digital die gezeigte Treppe mit einer näheren "Sinusverwandtschaft" und damit am gleichen DA-Wandler ein anderes Klirrspektrum.


Du meinst wenn der A/D-Wandler mit einer leicht verschobenen Phase arbeitet? Ja, dann kommt die treppenartige Wertefolge heraus, aber die Rekonstruktion müßte bei korrekter Filterung der gleiche klirrfreie Sinus sein.


Ein Vorteil der modernen Wandler ist doch der Einsatz weniger steiler Filter. Aber diese können Fehler, die eigentlich aus der AD-Wandlung kommen, eben diese Rechtecksignale, weniger gut und klirrfrei wieder in Sinussignale zurückverwandeln. Alte DA-Wandler mit steilen Filtern haben gar keine andere Wahl, als den Klirr zu "vernichten".


Alte D/A-Wandler ohne Oversampling haben die Fehlerquelle Oversamplingfilter nicht. Die gesamte Rekonstruktionsarbeit obliegt dem analogen Filter, und solange dort genügend Headroom vorhanden ist (3dB mehr als der maximale Ausgangs-Spitzenwert des D/A-Wandlers), müssen die Klirranteile verschwinden.

Ich störe mich aber an der Aussage, die Fehler kämen von den A/D-Wandlern. Ich behaupte das Digitalsignal ist korrekt, und der Fehler liegt im (digitalen) Oversamplingfilter des D/A-Wandlers. Dort passiert ein Überlauf, der Klirr erzeugt, welcher nicht vom analogen "Nachfilter" beseitigt wird, weil dessen Grenzfrequenz dafür zu hoch ist.


Ich erinnnere an die Stelle "Der Test" im Beitrag. Hier heisst es, dass beispielsweise 11,025kHz als Ton verwendet wurde, der einen Pegel von +3dBFS erzeugen soll, dass der entstandene Klirr, gemessen mit einem Spektrum bis 80 kHz bei -17 bis -29dB lag. Was soll eine solche Messung, wenn erstens diese Frequenz keine Oberwelle generieren kann, da solche ausserhalb des Nyquist-Kriteriums angesiedelt ist? Da könnte sich doch gar kein Klirr bilden. Ausser das Filter ist halt doch so breitbandig, dass Frequenzen in dieser Höhe noch aus dem DA-Wandler raus kommen und folglich auch messbar sind.


Ich hoffe Dir ist inzwischen klar wie ich's meine: Das angesprochene 3dBFS-Signal mit 11,05kHz ist genau mein Beispielsignal, bloß mit 44,1kHz Abtastung wie beim CD-Spieler üblich. Also zweimal Maximum, zweimal Minimum. Die generierten Oberwellen entstehen nun deswegen, weil das Oversamplingfilter überläuft beim Versuch, Zwischenwerte zu errechnen. Die analogen Nachfilter nach dem D/A-Wandler sind von ihrer Auslegung her nicht geeignet, diesen Klirr herauszufiltern (man geht schließlich von einem korrekt funktionierenden Oversamplingfilter aus).


Allerdings ist das doch ein Armutszeugnis, wenn ich quasi aus einem 16 Bit Wandlersystem ein 18 Bit (oder mehr) mache und dann wieder nur einen 16 Bit DA einsetze.
Ausser ich mache das ganze als Werbegag und "schmeiss" die zwei neu gewonnenen Bit in die Tonne.


Die zusätzlichen Bits kommen "unten" dazu und nicht "oben". Sie sollen also den Rauschteppich verringern und nicht die maximale Aussteuerbarkeit verbessern. Ich würde das nicht Armutszeugnis nennen wollen.

Ein D/A-Wandler mit Oversampling, der diesen Effekt vermeiden will, müßte das digitale Signal beim Eintritt in den Oversamplingfilter um 3dB abschwächen, und die 3dB nach erfolgter Wandlung auf der analogen Seite wieder aufholen. Ich kenne keinen D/A-Wandler der das tut.

Ich bin auch nicht überzeugt daß es sinnvoll wäre wenn er's täte. Das Problem sehe ich eher bei der CD-Produktion angesiedelt. Eine CD ist nicht dann korrekt gemastert, wenn alle Samples "reinpassen", sondern wenn der Inhalt von normalen Wandlern korrekt abgespielt werden kann. Das heißt auch die interpolierten Samples, die bei Oversampling mit beliebig hohem Oversampling-Faktor entstehen, müssen in den Zahlenbereich "reinpassen". Unser 11,05kHz Beispielsignal wäre also schlicht übersteuert, auch wenn alle einzelnen Samples auf der CD es nicht sind.

Letztlich wird es dadurch ein Problem des Metering, insbesondere von Peak-Metern. Ein "einfaches" digitales Peak-Meter würde beim 11,05kHz-Testsignal fälschlicherweise 0dBFS anzeigen, weil es einfach auf die Betragsmäßig größten Samples schaut. Ein korrektes aber würde 3dBFS anzeigen. Konzeptuell muß man also für korrektes Metering ein "genügend" feines Oversampling machen, und erst danach nach den Peaks suchen. Wenn bei einem solcherart korrekt arbeitendem Peak-Meter das rote Licht nicht angeht, dann ist das Resultat ohne Probleme auf jedem D/A-Wandler wiedergebbar.

So habe ich jedenfalls Fey verstanden.
richi44
Hat sich gelöscht
#26 erstellt: 14. Okt 2005, 08:57
@ Pelmazo
Ich glaube, langsam kommen wir uns näher.
Nochmals meine Grundüberlegungen mit Basis der Artikel Fey:
Dort geht es zuerst mal um die Herstellung der Test-CD und es wird von dem 11,025 kHz Sinus berichtet, der +3dBFS haben soll, wenn seine Startphase 45 Grad verschoben ist gegenüber dem Samplingtakt. Genau das habe ich in meiner oberen Grafik dargestellt, indem die roten vertikalen Linien die "Momentaufnahme" des anliegenden Sinussignals darstellen. Klar ist zu sehen, dass dabei der Sinus-Scheitelpunkt 3dB höher liegt.
Wenn man also annimmt, bei meinen blauen Linien seien alle Bit verkauft, so ist das zugeführte Sinussignal tatsächlich 3dB höher.

Ich kann mir vorstellen, dass ein Uralt-Wandler mit ultrasteilen (möglicherweise?) LC-Filtern den Sinus so rekonstruiert, dass seine ursprüngliche Kurve wieder erreicht wird und er somit wieder die 3 dB zurückgewinnt.
Das ist aber nicht der eigentliche Knackpunkt, sondern die Tatsache, dass derartige Pegel nur unter den angegebenen Voraussetzungen auf die CD gebracht werden können.

Wenn man also bei diesem Momentaufnahmen-AD-Wandler keine Phasenverschiebung zwischen anliegendem Sinus und dem Sampletakt hat, erfolgt die Messung im Scheitelpunkt und am Nulldurchgang. Und damit kann der Scheitelpunkt nicht mehr höher sein als es die 16 Bit zulassen.
Das bedeutet nichts anderes, als dass das auf der CD aufgezeichnete Messsignal nicht praxisgerecht ist, denn es gibt keine Musiker, die phasengenaue Töne gegenüber dem Sampletakt von sich geben.
Weiter ist dieses Messsignal wie erwähnt nur mit dieser Phasenverschiebung möglich und nur mit einem AD-Wandler beschriebener Art.
Aber denken wir die Sache weiter: Was passiert, wenn wir ein 22,05kHz-Signal aufzeichnen könnten? Je nach Phasenlage gegenüber dem Takt würde die Wandlung am Scheitelpunkt vorgenommen oder am Nulldurchgang oder sonst wo. Und je nach Phase wäre der digitale Pegelwert unterschiedlich.
Gut, das geht nicht, sowas aufzunehmen. Aber 20 kHz geht. Und da wäre das Ergebnis ein mit 2,05 kHz amplitudenmodulierter Sinus von 20 kHz. Wie gesagt, mit einem AD-Wandler, welcher nach dem Momentaufnahmeverfahren ohne Oversampling funktioniert. Und wie gesagt ist nur dieser Wandler in der Lage, auch das ominöse +3dBFS 11 kHz aufzunehmen.
Sobald ein Oversampling-AD-Wandler Verwendung findet, kommt es zu einer entsprechenden Anzahl von Zwischenwertungen, wovon KEINE den digitalen Aussteuerbereich überschreiten darf. Folglich ist damit das +3dBFS-Signal "nach Fey" nicht zu verarbeiten.

Jetzt zur nächsten Überlegung:
Oversampling erhöht bei der Wiedergabe nicht die Datenpräzision, sondern wird entweder genutzt, um mit einem einfachen Wandler (erste Philips CDP) von 14 Bit ein 16 Bit System zu realisieren. Später wurde das Selbe mit 1 Bit-Wandlern gemacht.
Der echte Vorteil ist doch, dass die Filter nicht so steil sein müssen, weil die entstehenden Frequenzen weit genug vom Audiospektrum entfernt liegen.
Hier stellt sich für mich die Frage, ob dann ein Signal mit 11 kHz, das 2 mal Maximum und 2 mal Minimum enthält, als sauberen Sinus ohne Klirr dargestellt wird oder als "Rechteck"? Mit den "hochfrequenten" Filtern würde der Rechteck kaum gross entschärft. Dann wäre auch die "Rekonstruktion" des Scheitelwertes, wie er mit extrem steilen filtern möglich ist, nicht stattfinden und somit wäre das Signal wieder beim ursprunglich maximalen Peakwert angelangt. Es wäre folglich bei der Wiedergabe nicht die +3 dBFS gross.
Und wollte man die entstehenden Oberwellen des "Rechtecks" unterdrücken, müsste man dies wieder mit steilflankigen Filtern tun.
Wie schon erwähnt, habe ich mich mit der "Archidektur" nicht so grossartig befasst, es sind also alles Überlegungen meinerseits.

Des weiteren sprichst Du beim Wiedergabe-Oversampling von Bildung von Zwischenwerten. Dies ist möglich, aber nicht zwingend. Ohne die Zwischenwerte habe ich zwar beispielsweise 4 mal das selbe Signal, aber die Störfrequenzen liegen jetzt 4 mal höher. Ich kann also Filter mit einem Viertel der Steilheit eines Ur-Wandlers verwenden.

Wenn ich Zwischenwerte bilde, so gehe ich davon aus, dass ich die beiden aufeinanderfolgenden CD-Samples vergleiche und aus deren "Pegelsprung" einzelne, kleinere "Sprünge" errechne. Ich erhöhe damit künstlich die Auflösung, ohne deren Richtigkeit zu verbessern.
Wenn ich jetzt wieder meine obere Grafik verwende, so wird es zwischen den ersten zwei Messpunkten noch vier weitere geben, die auf gleicher Ebene verlaufen, weil es keine Differenz zwischen ihnen gibt.
Zwischen Messpunkt 2 und 3 entstehen vier neue Punkte, die auf einer Geraden zwischen ihnen verlaufen und ungefähr dem Originalsignal folgen. Die zweite "Messpunktgruppe" folgt demnach dem Eingangssignal, die erste nicht. Und es würde keinen Sinn ergeben, künstlich einen "sinusscheitelpunktartigen" Verlauf zu konstruieren, denn es ist letztlich nicht mehr feststellbar, ob es sich beim Ursignal um einen Sinus oder um was für eine Kurvenform gehandelt hat. Und damit sehe ich nicht, wie durch eine Bildung von Zwischenwerten plötzlich höhere Pegel jenseits von den jetztigen 16 Bit entstehen sollten, jedenfalls nicht im oberen Bereich. Dass das Oversampling wie erwähnt, eine künstliche Erhöhung der Auflösung bewirkt und das mit einer Erhöhung der Bitzahl (am unteren Ende!) einher geht, versteht sich. Aber das hätte gar nichts mit den +3dBFS zu tun.

Zusammenfassend muss ich sagen, dass in dem erwähnten Artikel eine Konstruktion von Testsignalen zur Anwendung kommt, die mit heutigen Studio-AD-Wandlern nicht aufgezeichnet werden können. Das ist wirklich den billigsten Dingern vorbehalten und darum habe ich die Soundkarte erwähnt. Viele derart problematische Aufnahmen sind Produkt eines Billigst-Equipments.
Weiter ist die Frage, wie weit die Filter die Kurvenformen ausbügeln und damit Klirr zulassen. Dass es sich um Klirr handelt, der über dem Hörbereich liegt, macht die Sache nicht einfacher.
Es fragt sich also letztlich, was dieser Artikel aussagt. Wenn, wie Du vermutest, Messungen im digitalen Bereich erfolgen (Klirr Mischpult) oder zumindest vor der Filterung, ist die Aussage nicht relevant. Und wenn die Klirrmessungen an den CDP bei diesen nicht logischen Signalen ebenfalls zu Werten bei unhörbaren Frequenzen führen, ist deren Aussagekraft auch bestritten.
Unbestritten ist, dass moderne Wandler mit den flacheren Filtern aus vergewaltigten Aufnahmen nichts schöngebügeltes produzieren, wie dies die alten Wandler taten. Aber dafür können sie gute Aufnahmen besser wiedergeben.
pelmazo
Hat sich gelöscht
#27 erstellt: 14. Okt 2005, 13:58

richi44 schrieb:
Ich glaube, langsam kommen wir uns näher.


Ja, das denke ich auch. Es gibt aber trotzdem noch ein paar Dinge die ich kommentieren muß.


Wenn man also bei diesem Momentaufnahmen-AD-Wandler keine Phasenverschiebung zwischen anliegendem Sinus und dem Sampletakt hat, erfolgt die Messung im Scheitelpunkt und am Nulldurchgang. Und damit kann der Scheitelpunkt nicht mehr höher sein als es die 16 Bit zulassen.
Das bedeutet nichts anderes, als dass das auf der CD aufgezeichnete Messsignal nicht praxisgerecht ist, denn es gibt keine Musiker, die phasengenaue Töne gegenüber dem Sampletakt von sich geben.


Das Messignal ist in der Tat ziemlich künstlich, und kann so wohl kaum das Resultat eines normalen Aufzeichnungsprozesses sein, und zwar - wie sich auch aus Deinen Ausführungen ergibt - aus mehreren Gründen. Der eine ist die Phasenbeziehung zwischen Musiksignal und Samplingtakt, die in der Praxis rein zufällig wäre und nicht bewußt so gesteuert werden könnte daß sich das Meßsignal ergäbe. Es ist allerdings nicht ausgeschlossen, sondern nur unwahrscheinlich. Zum anderen werden heute überwiegend Oversampling-Wandler bei der Aufnahme eingesetzt, so daß sich solche Werte auch nicht ergeben können.

Du übersiehst aber das sich diese Szenarien durchaus ergeben könnten, wenn die Musikinstrumente selbst schon digital sind (z.B. Plugins im PC), oder als Resultat der Nachbearbeitung im digitalen Bereich (z.B. Mastering). Eine Aufnahme über einen A/D-Wandler wird selten so hart ausgesteuert daß sich das Problem mit der Übersteuerung stellen würde, aber beim Mastering wird ja bekanntlich heute möglichst viel Lautheit rausgeschunden, so daß das digitale Ergebnis, das dann auf CD gepreßt wird, tatsächlich Oversampling-Überläufe im D/A-Wandler produzieren könnte. Ist es nicht genau das was Fey schreibt und nachgewiesen zu haben meint (er hat ja auch existierende CD's unter die Lupe genommen)?


Weiter ist dieses Messsignal wie erwähnt nur mit dieser Phasenverschiebung möglich und nur mit einem AD-Wandler beschriebener Art.


Oder eben digital erzeugt.


Aber denken wir die Sache weiter: Was passiert, wenn wir ein 22,05kHz-Signal aufzeichnen könnten? Je nach Phasenlage gegenüber dem Takt würde die Wandlung am Scheitelpunkt vorgenommen oder am Nulldurchgang oder sonst wo. Und je nach Phase wäre der digitale Pegelwert unterschiedlich.
Gut, das geht nicht, sowas aufzunehmen.


Richtig, es wäre eine Verletzung des Nyquist-Kriteriums.


Aber 20 kHz geht. Und da wäre das Ergebnis ein mit 2,05 kHz amplitudenmodulierter Sinus von 20 kHz.


Nein. Wieder schließt Du das aus der "Kurve", die entsteht wenn man die Abtastwerte mit Geraden verbindet. Und da würde es so aussehen als hätte man einen 22,05kHz (nicht 20kHz!) Sinus, der mit 2,05 kHz amplitudenmoduliert ist. Das ist aber eine "Täuschung", die aus Deiner falschen Rekonstruktion entsteht, denn Du wendest nicht das "optische Äquivalent" eines korrekten Rekonstruktionsfilters an. Eine korrekte Rekonstruktion dürfte nur Frequenzanteile unterhalb von 22,05kHz enthalten, und die einzige Möglichkeit, wie Du die Abtastwerte mit Linien so verbinden kannst, daß diese Bedingung erfüllt ist, ist der nicht amplitudenmodulierte 20kHz Sinus. Nyquist funktioniert, man muß sich nur an die Voraussetzungen halten.


Sobald ein Oversampling-AD-Wandler Verwendung findet, kommt es zu einer entsprechenden Anzahl von Zwischenwertungen, wovon KEINE den digitalen Aussteuerbereich überschreiten darf. Folglich ist damit das +3dBFS-Signal "nach Fey" nicht zu verarbeiten.


Ganz recht.


Oversampling erhöht bei der Wiedergabe nicht die Datenpräzision, sondern wird entweder genutzt, um mit einem einfachen Wandler (erste Philips CDP) von 14 Bit ein 16 Bit System zu realisieren. Später wurde das Selbe mit 1 Bit-Wandlern gemacht.
Der echte Vorteil ist doch, dass die Filter nicht so steil sein müssen, weil die entstehenden Frequenzen weit genug vom Audiospektrum entfernt liegen.


Man kann es auch so sagen: Ein Teil der Rekonstruktionsarbeit, die beim "einfachen" Wandler im Analogfilter geschieht, wird durch Oversampling in den digitalen Bereich verschoben. Ein einfacher Wandler bräuchte ein ziemlich steiles Rekonstruktionsfilter, da sind oft Konstruktionen 5. oder 7. Ordnung verbaut worden, mit den entsprechenden Konsequenzen für das Phasenverhalten. Je mehr man das in den Digitalbereich verlagern kann, desto mehr profitiert man von der Preisreduktion, die man durch die Digitaltechnik erhält, und von der digitalen Filtertechnologie, die andere Konstruktionen zuläßt als sie analog möglich wären. Im Ergebnis reicht dann oft ein billiger, einfacher passiver Tiefpaß als analoge Ausgangsstufe.


Hier stellt sich für mich die Frage, ob dann ein Signal mit 11 kHz, das 2 mal Maximum und 2 mal Minimum enthält, als sauberen Sinus ohne Klirr dargestellt wird oder als "Rechteck"?


Da sind verschiedene Szenarien denkbar. Wenn der Konstrukteur des Oversamplingfilters nicht an die Möglichkeit des Überlaufs gedacht hat, dann ist es möglich, daß ein positiver Überlauf ein negatives Resultat ergibt und umgekehrt. Das ist das Standardverhalten der Computerarithmetik im Zweierkomplement. Das akustische Ergebnis ist wesentlich übler als bloßes Clipping.

Wenn der Konstrukteur daran gedacht hat, dann wird er vermutlich Arithmetik mit Sättigungsverhalten implementieren, das ist digitales Clipping. Dann ergäbe sich ein Sinus mit abgsägten Spitzen. Darin sind aber Oberwellen enthalten, die unterhalb der Grenzfrequenz des analogen Rekonstruktionsfilters am Ausgang des D/A-Wandlers liegen, und das Ergebnis dürfte ziemlich genau so wie im Bild von Fey aussehen.


Mit den "hochfrequenten" Filtern würde der Rechteck kaum gross entschärft. Dann wäre auch die "Rekonstruktion" des Scheitelwertes, wie er mit extrem steilen filtern möglich ist, nicht stattfinden und somit wäre das Signal wieder beim ursprunglich maximalen Peakwert angelangt. Es wäre folglich bei der Wiedergabe nicht die +3 dBFS gross.


Ganz richtig.


Und wollte man die entstehenden Oberwellen des "Rechtecks" unterdrücken, müsste man dies wieder mit steilflankigen Filtern tun.


Ja, aber die wollte man ja gerade loswerden.


Wie schon erwähnt, habe ich mich mit der "Archidektur" nicht so grossartig befasst, es sind also alles Überlegungen meinerseits.


Die größtenteils in die richtige Richtung gehen.


Des weiteren sprichst Du beim Wiedergabe-Oversampling von Bildung von Zwischenwerten. Dies ist möglich, aber nicht zwingend. Ohne die Zwischenwerte habe ich zwar beispielsweise 4 mal das selbe Signal, aber die Störfrequenzen liegen jetzt 4 mal höher. Ich kann also Filter mit einem Viertel der Steilheit eines Ur-Wandlers verwenden.


Wirklich? Ich würde eher sagen sie sind genau die gleichen wie zuvor.


Wenn ich Zwischenwerte bilde, so gehe ich davon aus, dass ich die beiden aufeinanderfolgenden CD-Samples vergleiche und aus deren "Pegelsprung" einzelne, kleinere "Sprünge" errechne. Ich erhöhe damit künstlich die Auflösung, ohne deren Richtigkeit zu verbessern.


Richtig, es werden aber nicht nur zwei aufeinanderfolgende Werte verglichen, das wäre zu einfach. Letztlich erfolgt die "Errechnung" der Zwischenwerte durch einen Tiefpaßfilter. Die Situation ist der D/A-Wandlung als solcher sehr ähnlich. Im Grunde kann man D/A-Wandlung als unendliches Oversampling ansehen.


Wenn ich jetzt wieder meine obere Grafik verwende, so wird es zwischen den ersten zwei Messpunkten noch vier weitere geben, die auf gleicher Ebene verlaufen, weil es keine Differenz zwischen ihnen gibt.
Zwischen Messpunkt 2 und 3 entstehen vier neue Punkte, die auf einer Geraden zwischen ihnen verlaufen und ungefähr dem Originalsignal folgen. Die zweite "Messpunktgruppe" folgt demnach dem Eingangssignal, die erste nicht. Und es würde keinen Sinn ergeben, künstlich einen "sinusscheitelpunktartigen" Verlauf zu konstruieren, denn es ist letztlich nicht mehr feststellbar, ob es sich beim Ursignal um einen Sinus oder um was für eine Kurvenform gehandelt hat.


Was Du hier tust ist lineare Interpolation zwischen benachbarten Meßpunkten. Das ist zwar ansatzweise eine Tiefpaßfilterung, aber keine korrekte für den Zweck. Du wirst einen "richtigen" Tiefpaß mit der richtigen Eckfrequenz und ausreichender Steilheit einsetzen müssen, und der ist deutlich aufwendiger als eine bloße lineare Interpolation.


Und damit sehe ich nicht, wie durch eine Bildung von Zwischenwerten plötzlich höhere Pegel jenseits von den jetztigen 16 Bit entstehen sollten, jedenfalls nicht im oberen Bereich. Dass das Oversampling wie erwähnt, eine künstliche Erhöhung der Auflösung bewirkt und das mit einer Erhöhung der Bitzahl (am unteren Ende!) einher geht, versteht sich. Aber das hätte gar nichts mit den +3dBFS zu tun.


Lineare Interpolation kann keine Überhöhung produzieren, ein richtiger Tiefpaßfilter schon, so wie auch ein analoger Filter Überschwinger als Impulsantwort produzieren kann. Das ist genau das Argument warum lineare Interpolation nicht reicht.


Zusammenfassend muss ich sagen, dass in dem erwähnten Artikel eine Konstruktion von Testsignalen zur Anwendung kommt, die mit heutigen Studio-AD-Wandlern nicht aufgezeichnet werden können. Das ist wirklich den billigsten Dingern vorbehalten und darum habe ich die Soundkarte erwähnt. Viele derart problematische Aufnahmen sind Produkt eines Billigst-Equipments.


Ich denke ich habe erläutert wie das auch als Ergebnis des Masteringprozesses entstehen könnte. Es hat insofern nicht viel mit Billig-Equipment zu tun. Das von Fey angesprochene Problem läuft - wie schon erwähnt - auf strengere Anforderungen an das Metering hinaus, so daß der Masteringingenieur bei seiner Arbeit beurteilen kann, ob das von ihm generierte Digitalsignal solche Überläufe in D/A-Wandlern zur Folge haben kann. Ein "einfaches" digitales Peak-Meter, wie man es zuhauf findet, kann im Extremfall bis zu 3dB zu niedrig anzeigen, und den Bediener in der falschen Sicherheit wiegen, sein Digitalsignal sei einwandfrei. Wenn man nicht auf Teufel komm raus laut sein wollte dann würde man einfach wie früher sowieso 3dB Headroom für Impulsspitzen lassen und hätte ein einwandfrei klingendes Produkt ohne Probleme. Nur wer jedes dB herausquetschen will rennt in diese Falle.


Unbestritten ist, dass moderne Wandler mit den flacheren Filtern aus vergewaltigten Aufnahmen nichts schöngebügeltes produzieren, wie dies die alten Wandler taten. Aber dafür können sie gute Aufnahmen besser wiedergeben.


Ganz genau, ich hätte es nicht besser sagen können.
richi44
Hat sich gelöscht
#28 erstellt: 14. Okt 2005, 14:50
So, jetzt habe ich nur noch einen Einwand.


Nein. Wieder schließt Du das aus der "Kurve", die entsteht wenn man die Abtastwerte mit Geraden verbindet. Und da würde es so aussehen als hätte man einen 22,05kHz (nicht 20kHz!) Sinus, der mit 2,05 kHz amplitudenmoduliert ist. Das ist aber eine "Täuschung", die aus Deiner falschen Rekonstruktion entsteht, denn Du wendest nicht das "optische Äquivalent" eines korrekten Rekonstruktionsfilters an. Eine korrekte Rekonstruktion dürfte nur Frequenzanteile unterhalb von 22,05kHz enthalten, und die einzige Möglichkeit, wie Du die Abtastwerte mit Linien so verbinden kannst, daß diese Bedingung erfüllt ist, ist der nicht amplitudenmodulierte 20kHz Sinus. Nyquist funktioniert, man muß sich nur an die Voraussetzungen halten.


Ich spreche hier wieder von der AD-Wandlung mit dem billigen, nicht oversampelnden Ding und nicht von der DA-Wandlung.
Hätten wir die 22,05 kHz, so würde je nach Phase ein Signal unterschiedlicher Stärke digital erscheinen.
Wenn wir aber von 20 Khz ausgehen, so stell Dir in meiner Grafik eine lange Sinuskurve vor, die gesampelt wird, wobei die einzelnen "Schnappschüsse" durch die abweichende Samplingfrequenz nicht immer am selben Ort vorgenommen werden. Zu Beginn könnte es der Scheitelpunkt sein, doch im Verlauf von 10 Samples verschiebt sich die Sache, sodass zwischendurch die Schnappschüsse auch auf den Nulldurchgang zu liegen kommen.

Ich wollte damit klar machen, dass ein AD-Wandler, der solche (die ominösen 11,025 kHz) Signale entstehen lässt und damit die ebenso ominösen +3dBFS, nicht in der Lage wäre, ein 20 kHz Sinussignal zu digitalisieren.
Das soll heissen, dass das Testsignal schon etwas an den Haaren herbeigezogen ist.

Richtig ist, dass es zu unmöglichen Zuständen kommen kann, wenn weitere digitale Geräte mitmischen.

Und ebenso richtig ist, dass zwar bei einem einzelnen Impuls, der analog auf einem Modulometer landet (die Dinger werden meist in der langsamen Stellung betrieben, also mit einer Anstiegszeit von 10ms für Anzeigt -1dB) die Anzeige arg daneben liegt, dass aber oft mit dem Digitaleingang des Instrumentes gearbeitet werden könnte, wo jede einzelne Überschreitung angezeigt wird, aber diese Funktion wird wenig benutzt, schliesslich hat man am Ausgang ja noch einen mehr oder minder schnellen Limiter...
pelmazo
Hat sich gelöscht
#29 erstellt: 14. Okt 2005, 17:11

richi44 schrieb:
Hätten wir die 22,05 kHz, so würde je nach Phase ein Signal unterschiedlicher Stärke digital erscheinen.


Ein Gleichspannungssignal, richtig. Das ist der Grenzfall des Aliasing. Darum ist die halbe Abtastfrequenz als Signalfrequenz schon nicht mehr erlaubt.


Wenn wir aber von 20 Khz ausgehen, so stell Dir in meiner Grafik eine lange Sinuskurve vor, die gesampelt wird, wobei die einzelnen "Schnappschüsse" durch die abweichende Samplingfrequenz nicht immer am selben Ort vorgenommen werden. Zu Beginn könnte es der Scheitelpunkt sein, doch im Verlauf von 10 Samples verschiebt sich die Sache, sodass zwischendurch die Schnappschüsse auch auf den Nulldurchgang zu liegen kommen.


Richtig, das Ganze hat Ähnlichkeit mit einer Schwebung. Du kannst das ja mal ausprobieren: Taste den 20kHz-Sinus über viele Samples hinweg ab, behalte nur die Punkte, und versuche durch sie eine Kurve zu rekonstruieren, die keine Frequenzanteile über der halben Abtastfrequenz hat. Du wirst sehen, daß nur die originale Sinuskurve herauskommen kann, alles andere würde zu hohe Frequenzen beinhalten. Vorsicht dabei allerdings vor den Effekten wenn eine Sinuskurve plötzlich an- oder abgeschaltet wird. Darin stecken auch Oberwellen.


Ich wollte damit klar machen, dass ein AD-Wandler, der solche (die ominösen 11,025 kHz) Signale entstehen lässt und damit die ebenso ominösen +3dBFS, nicht in der Lage wäre, ein 20 kHz Sinussignal zu digitalisieren.
Das soll heissen, dass das Testsignal schon etwas an den Haaren herbeigezogen ist.


Nein, da bin ich wieder nicht einverstanden. Ein AD-Wandler ohne Oversampling könnte so ein Signal digitalisieren, wenn es mit der passenden Phase anliegt.

Da kommen auch zweierlei Dinge durcheinander. Die Digitalisierung besteht aus zwei aufeinanderfolgenden Vorgängen: Der Abtastung (Sampling) und der Quantifizierung. Im ersten Schritt spielen die Frequenzbetrachtungen eine Rolle, also die nötige Bandbreitenbegrenzung. Erst im zweiten Schritt wird in eine Zahl gewandelt, und da kommen die Beschränkungen bzgl. des Pegels ins Spiel, weil der Zahlenvorrat begrenzt ist. Mit den Frequenzen hat das nicht direkt etwas zu tun, und der Vorgang ist eigentlich auch nichtlinear. So kommt es daß man den gleichen Kurvenzug abhängig von der Phasenlage einmal digitalisieren kann und ein anderes Mal nicht.

Wenn man derlei Merkwürdigkeiten vermeiden will, dann muß der Pegel dergestalt begrenzt werden, daß nicht nur bei der momentan verwendeten Abtastfrequenz, sondern egal bei welcher verwendeten Abtastfrequenz und Phasenlage, also auch bei beliebig hohem Oversampling, nirgendwo der darstellbare Zahlenbereich überschritten wird. Erst dann kann man davon ausgehen das jeder beliebige Wandler, (Abtastratenwandler/Oversamplingfilter und A/D-D/A-Wandler) der es mit dem Signal zu tun kriegt, ohne Probleme damit umgehen kann.


schliesslich hat man am Ausgang ja noch einen mehr oder minder schnellen Limiter


Wenn das ein digitaler Limiter ist, dann ist es gut möglich daß er den gleichen Fehler macht wie ein "einfaches" Peak-Meter, und das Signal um bis zu 3dB zu leise bewertet, also das Limiting haut nicht hin.
richi44
Hat sich gelöscht
#30 erstellt: 16. Okt 2005, 07:53
Jetzt nochmals ein paar Überlegungen:
Wenn ich irgendwie das +3dBFS-Signal erzeugt habe, das digital auch nicht mehr als seine 16 Bit verkauft hat und dieses mit einem einfachen DA-Wandler decodiere, so habe keine Probleme.
Wenn ich es mit einem linear interpolierenden Oversampling-Wandler bearbeite, ist es auch kein Problem.
Das Problem entsteht offensichtlich erst, wenn die Oversampling-Zwischenwerte nicht linear gebildet werden, sondern einem bestimmten Algoritmus folgen, der möglicherweise den ursprünglichen Kurvenverlauf besser nachbildet.
Das bedeutet aber, dass ich bei einem linear interpolierenden 4fach OS einen 18Bit-Wandler brauche, weil ich 2 Bit "unten" angesetzt habe, bei einem nicht linearen müsste ich aber 19 Bit verwenden, damit ich den Bereich auch oben erweitern kann, weil die berechneten Bits möglicherweise den bisherigen Scheitelpunkt überschreiten.

Ich frage mich jetzt erstens, wenn ich doch so einen "Komfortwandler" designe und den entsprechenden (oder die) Algoritmen entwickle, warum ich dann nicht gleich die nötigen Bits mit dazu erfinde, damit es nicht zu diesem Überlauf kommt.

Und zweitens: Wie weiss ich als Kunde, was der einzelne Wandler kann? Es gibt ja sicher nicht hunderte von Wandlern, die auf dem Markt angeboten werden und die Presiunterschiede werden doch auch nicht so riesig sein. Da müsste man doch eigentlich annehmen, dass überall etwa das Ähnliche drin ist.
Ich muss hier nochmals betonen, dass ich mich mit der digitalen Hardware praktisch nicht beschäftigt habe, weil basteln (auch nur schon geistig) auf der digitalen Ebene lange nicht so spannend ist wie auf der analogen, vor allem mit Transistoren. Da kann der Geist doch noch aus dem Vollen schöpfen, digital aber nur mehr oder weniger intelligente Bausteine zusammenfügen, also Lego spielen...
Jedenfalls habe ich das bisher so empfunden.
pelmazo
Hat sich gelöscht
#31 erstellt: 16. Okt 2005, 22:31

richi44 schrieb:
Jetzt nochmals ein paar Überlegungen:
Wenn ich irgendwie das +3dBFS-Signal erzeugt habe, das digital auch nicht mehr als seine 16 Bit verkauft hat und dieses mit einem einfachen DA-Wandler decodiere, so habe keine Probleme.


Ja, sofern beim analogen Rekonstruktionsfilter genug Headroom vorhanden ist, ansonsten könnte es da zum Clipping kommen.


Wenn ich es mit einem linear interpolierenden Oversampling-Wandler bearbeite, ist es auch kein Problem.


Das würde ich nicht sagen. Du bekommst zwar keine Überläufe, aber auch kein korrekt rekonstruiertes Signal. Lineare Interpolation ist keine "gültige" Art des Oversampling.


Das Problem entsteht offensichtlich erst, wenn die Oversampling-Zwischenwerte nicht linear gebildet werden, sondern einem bestimmten Algoritmus folgen, der möglicherweise den ursprünglichen Kurvenverlauf besser nachbildet.


Richtig. Dieser Algorithmus realisiert de facto ein Tiefpaßfilter höherer Ordnung.


Das bedeutet aber, dass ich bei einem linear interpolierenden 4fach OS einen 18Bit-Wandler brauche, weil ich 2 Bit "unten" angesetzt habe, bei einem nicht linearen müsste ich aber 19 Bit verwenden, damit ich den Bereich auch oben erweitern kann, weil die berechneten Bits möglicherweise den bisherigen Scheitelpunkt überschreiten.


Das müßte man, wenn man solche Überläufe in jedem Fall vermeiden will. Es würde de facto auch ein halbes Bit reichen (für 3dB). Man könnte also stattdessen am Eingang des Oversampling-Filters eine Abschwächung um 3dB vornehmen (eine Multiplikation mit dem Faktor 0.707). Das so abgeschwächte Signal würde nach dem Oversampling an den D/A-Wandler gehen und müßte danach im Analogbereich wieder entsprechend verstärkt werden. Dabei braucht man denselben analogen Headroom wie er im obigen "einfachen" Fall ohne Oversampling für das Rekonstruktionsfilter nötig gewesen wäre.

Ein solcher Wandler wäre also nicht schwierig zu bauen. Es reicht wenn man einem existierenden Wandler eine (digitale) Abschwächerstufe um 3dB voranstellt und die durch höhere Analogverstärkung am Ausgang wieder kompensiert. Man verliert dabei aber 3dB Rauschabstand, und das ist üblicherweise der Bereich wo geprotzt wird


Ich frage mich jetzt erstens, wenn ich doch so einen "Komfortwandler" designe und den entsprechenden (oder die) Algoritmen entwickle, warum ich dann nicht gleich die nötigen Bits mit dazu erfinde, damit es nicht zu diesem Überlauf kommt.


Mal abgesehen von den vielen Designern, die das Problem gar nicht sehen, oder wenigstens nicht als Problem erkennen, liegt wohl der Hauptgrund im Verlust von 3dB Dynamik und THD+N. Ich selber würde auch typischerweise eher die besseren Rauschabstände wollen, als ein Problem zu vermeiden, das bei verantwortungsvollem Mastering gar nicht auftreten sollte. Die Ausnahme wäre vielleicht ein High-End Wandler, bei dem der Rauschabstand sowieso untadelig ist, und wo ich den Perfektionismus sich austoben lassen kann.


Und zweitens: Wie weiss ich als Kunde, was der einzelne Wandler kann? Es gibt ja sicher nicht hunderte von Wandlern, die auf dem Markt angeboten werden und die Presiunterschiede werden doch auch nicht so riesig sein. Da müsste man doch eigentlich annehmen, dass überall etwa das Ähnliche drin ist.


Es gibt eine Reihe von Chipherstellern, die die Zutaten für die Geräte anbieten. Es würde also reichen, wenn man das Verhalten der gebräuchlichen Chips kennt. Das sind immer noch eine Menge, und über das beschriebene Problem findet man in den Datenblättern kein Sterbenswörtchen, man müßte es also in jedem Fall selber testen, so wie Fey es getan hat.

Aber nochmal: Das Problem sind in meinen Augen die Tonträger, die solche Überläufe produzieren, und nicht die Wandler. Ein Tonträger sollte schon so produziert werden, daß er mit den Geräten "da draußen" kompatibel ist. Welchen Sinn hat es, Tonträger zu machen, die bei der Mehrheit der Abspielgeräte Probleme machen? Die wird man nicht alle austauschen wollen, nur damit die CD nochmal 0,5dB lauter produziert werden kann. Es gilt, die Unsitte dieses Lautheitsrennens einzudämmen, und den Nutzen von Headroom wiederzuentdecken.

Es stellt sich für einen Kunden meiner Meinung nach also weniger die Frage, welches die genauen Geräteeigenschaften sind, sondern die Frage, welche Tonträger verantwortungsvoll gemastert sind.


Ich muss hier nochmals betonen, dass ich mich mit der digitalen Hardware praktisch nicht beschäftigt habe, weil basteln (auch nur schon geistig) auf der digitalen Ebene lange nicht so spannend ist wie auf der analogen, vor allem mit Transistoren. Da kann der Geist doch noch aus dem Vollen schöpfen, digital aber nur mehr oder weniger intelligente Bausteine zusammenfügen, also Lego spielen...
Jedenfalls habe ich das bisher so empfunden.


Wenn Du einen Signalprozessor programmierst, dann sind die Bausteine Multiplikationen und Additionen, da kannst Du auch aus "dem Vollen" schöpfen

Aber ich gebe Dir recht, in vielen Fällen werden einfach existierende Chips zusammengenagelt. Es kann dabei trotzdem immer noch genug schiefgehen, wie man aus solchen Subtilitäten erkennt, die wir hier diskutieren.
Joe_Brösel
Hat sich gelöscht
#32 erstellt: 17. Okt 2005, 07:30
Hi,
in unserem Wandler-Vergleichstest gestern haben wir im Endeffekt keine Unterschiede feststellen können.


[Beitrag von Joe_Brösel am 17. Okt 2005, 07:31 bearbeitet]
kyote
Inventar
#33 erstellt: 09. Nov 2005, 11:22
Habe ich das richtig verstanden, das bei guten Produktionen, die nicht bis an die obere Grenze gehen und somit das "Überlauf-Problem" nicht produzieren können, auf den nicht so guten Wandlern genausogut klingen, wie auf den richtig guten? Aber wiederum schlechte Produktionen auf den richtig guten Wandlern besser klingen als auf denen, die das "überlauf-Problem" haben?
pelmazo
Hat sich gelöscht
#34 erstellt: 09. Nov 2005, 13:49
Naja, das Überlaufproblem ist beileibe nicht das einzige Problem bei Wandlern. Der Klang kann auch durch andere Dinge beeinflußt werden. Im Übrigen ist offen, wie gut die besprochenen Überlaufeffekte hörbar sind, zumal bei "schlechten" Produktionen oft sowieso schon durch die Kompression der Klang gelitten hat, so daß durch die Überlaufeffekte auch kein großer Schaden mehr angerichtet wird.

Es ist einfach ein Grund mehr, dieses unsinnige Lautheitsrennen einzustellen. Der Tonqualität kann das nur gut tun.
kyote
Inventar
#35 erstellt: 09. Nov 2005, 14:15
Aha,
aber wenn dieser Effekt als einziges beeinflussend und hörbar wäre, würde meine Interpretation stimmen?

Mit dem Lautheitsrennen stimm ich dir natürlich absolut zu.
little-endian
Stammgast
#36 erstellt: 11. Dez 2006, 06:34
Hi pelmazo,

trotz der Zeit, die bereits wieder seit den letzten Beiträgen vergangen ist, würde ich die sehr interessante Diskussion gerne nochmal aufleben lassen:


Aber nochmal: Das Problem sind in meinen Augen die Tonträger, die solche Überläufe produzieren, und nicht die Wandler. Ein Tonträger sollte schon so produziert werden, daß er mit den Geräten "da draußen" kompatibel ist.


Was die generelle Kompatibilität angeht, die es seitens der Produzenten eigentlich zu gewährleisten gilt, so hast du sicher recht.

Andererseits würde ich von einem halbwegs professionellen D/A-Wandler auch erwarten, dass er bitteschön auch - was den Dynamikumfang aneht - alle im Datenstrom enthaltenen Samples
fehlerfrei verarbeitet.
Irgendwie missfällt mir der Gedanke, mein Signal bereits auf digitaler Ebene reduzieren zu müssen (ausgehend von per se 'clippingfreiem' Material, das jedoch intersample peaks enthält),
nur um sicher zu gehen, dass es letztlich im Analogsignal zu keinen Verzerrungen kommt.


Welchen Sinn hat es, Tonträger zu machen, die bei der Mehrheit der Abspielgeräte Probleme machen? Die wird man nicht alle austauschen wollen, nur damit die CD nochmal 0,5dB lauter produziert werden kann.


Nun ja, lässt man einmal den höheren Aufwand für die Wandler (zumindest bei solchen mit Oversampling) außer Acht, so ist doch ein Signal, dass auf digitaler Ebene den gesamten Wertebereich aussschöpft (0dBFS), selbst bei enthaltenen "intersample peaks" nach dessen Rekonstruktion qualitativ gegenüber einem um beispielsweise 3dB reduzierten im Vorteil, oder?
Wie gesagt, natürlich nur unter der Voraussetzung eines entsprechenden Wandlers. Und wer den nicht hat, kann sich das Signal ja immer noch in Eigenregie "herunterskalieren".
Die wenigen, die mit Wandlern entsprechenden Headrooms gesegnet sind, profitierten dann von dem noch höheren Dynamikumfang, der ja sonst - rein digital betrachtet - verschenkt würde,
um 'sensiblen' Wandlern genüge zu tun.

Kritiken an der Unsitte, Musik obligatorisch permanent gegen Fullscale zu peitschen, bleiben hiervon natürlich unberührt.

Da ich vorhabe, mir Benchmarks DAC1 zuzulegen, würde mich doch sehr interessieren, wie dieser mit Signalen jenseits der 0dB klarkommt.



Es gilt, die Unsitte dieses Lautheitsrennens einzudämmen, und den Nutzen von Headroom wiederzuentdecken.


Ich denke, in dem Punkt sollten wir uns alle einig sein.

Viele Grüße.


[Beitrag von little-endian am 11. Dez 2006, 06:47 bearbeitet]
pelmazo
Hat sich gelöscht
#37 erstellt: 15. Dez 2006, 16:36

little-endian schrieb:
Andererseits würde ich von einem halbwegs professionellen D/A-Wandler auch erwarten, dass er bitteschön auch - was den Dynamikumfang aneht - alle im Datenstrom enthaltenen Samples
fehlerfrei verarbeitet.
Irgendwie missfällt mir der Gedanke, mein Signal bereits auf digitaler Ebene reduzieren zu müssen (ausgehend von per se 'clippingfreiem' Material, das jedoch intersample peaks enthält),
nur um sicher zu gehen, dass es letztlich im Analogsignal zu keinen Verzerrungen kommt.


So kann man schon eingestellt sein, das würde ich gar nicht mal so falsch nennen.

Aber Fakt ist nun einmal daß es eine große Anzahl von Geräten auf dem Markt gibt, die das nicht problemlos hinkriegen. Wer eine CD macht muß ja auch an die denken, und nicht nur an die "perfekten" Wandler.

Und die Geräte gibt's weil es bisher keine Meßvorschrift für das Problem gibt, weil es meines Wissens bei keinem Zeitschriftentest überprüft wird (egal ob von der Stereo oder der Stiftung Warentest), und weil es vor einigen Jahren noch gar nicht als Problem wahrgenommen wurde, weil aus technischer Sicht ohnehin unsinnig ist, den Wandler ins Clipping zu treiben. Sprich, die Techniker haben das gar nicht als ihr Problem aufgefaßt.

Dazu kommt noch daß es schwer zu sagen ist was denn ein "korrektes" Verhalten des Wandlers in der Praxis wäre. Man braucht digitalen Headroom für die Intersample-Peaks im Oversampling-Filter, so viel ist klar, aber wieviel? Die Höhe der Peaks ist nicht prinzipiell begrenzt, also würde alles auf einen Kompromiß hinauslaufen. Und wenn man solchen Headroom einsetzt, führt das ziemlich wahrscheinlich zu einer entsprechenden Reduzierung anderer Daten, also speziell THD+N. Da damit gerne geprotzt wird ist man als Hersteller in einem Zielkonflikt.


Nun ja, lässt man einmal den höheren Aufwand für die Wandler (zumindest bei solchen mit Oversampling) außer Acht, so ist doch ein Signal, dass auf digitaler Ebene den gesamten Wertebereich aussschöpft (0dBFS), selbst bei enthaltenen "intersample peaks" nach dessen Rekonstruktion qualitativ gegenüber einem um beispielsweise 3dB reduzierten im Vorteil, oder?


Gerade bei den Aufnahmen, die so ans Limit gefahren werden iost das ein ziemlich theoretischer Vorteil. Die bei der CD mögliche Dynamik wird so ja nicht annähernd ausgeschöpft.


Da ich vorhabe, mir Benchmarks DAC1 zuzulegen, würde mich doch sehr interessieren, wie dieser mit Signalen jenseits der 0dB klarkommt.


Das müßte jemand ausprobieren, der ihn hat. Vielleicht wird den Testzeitschriften ja auch irgendwann ein Licht aufgehen und sie sehen sich das Verhalten in ihren Tests mal etwas genauer an.
cr
Inventar
#38 erstellt: 17. Dez 2006, 02:32
In einem anderen Thread - The loudness race - gibt es ein Programm zum Download, um Intersample-Overs zu erzeugen. Machen, auf CD brennen und anhören. Bei einigen CDPs klingen diese übersteuerten Signale sauber, bei einigen grauenhaft.
HiFi_Addicted
Inventar
#39 erstellt: 18. Dez 2006, 07:54
@pelmazo
6db Headroom dürften ausreichen. Mehr als ~ +4dbFS sind mir noch nicht untergekommen.

MfG Christoph
little-endian
Stammgast
#40 erstellt: 13. Jan 2007, 17:50

Aber Fakt ist nun einmal daß es eine große Anzahl von Geräten auf dem Markt gibt, die das nicht problemlos hinkriegen. Wer eine CD macht muß ja auch an die denken, und nicht nur an die "perfekten" Wandler.

Das ist auch wieder wahr. Vermutlich hat es (meines Wissens) deshalb nie S-VHS-Kaufkassetten gegeben. :-)


Gerade bei den Aufnahmen, die so ans Limit gefahren werden iost das ein ziemlich theoretischer Vorteil. Die bei der CD mögliche Dynamik wird so ja nicht annähernd ausgeschöpft.


In aller Regel ist davon in der Praxis auszugehen. Voraussetzung wären vorhandene, sehr leise Passagen in der Musik und im Gegensatz dazu wieder sehr laut, die diese "intersample peaks" enthalten. Ansonsten ist es mit der Dynamik sicherlich nicht weit her. Erhöhen würde sich bei korrekter Reproduktion lediglich der Rauschabstand, wenn ich das richtig verstanden habe. Das Quantisierungsrauschen dürfte aber spätestens bei 0dbFS+ einigermaßen maskiert sein. ;-)

Irgendwie erinnert mich die ganze Sache an SafeDisc 2. Damals hielt es (Oliver Kastl eingeschlossen) auch niemand für möglich, dass man einen MODE1-Track von einer CD zwar korrekt einlesen, jedoch nicht mehr zuverlässig schreiben könnte. Die EFM würde schon dafür sorgen, dass die Kodierung in einem zuverlässigen HF-Signal resultiert. Von wegen. Es existiert (offiziell) bis heute kein Brenner, der alle 'schwachen Sektoren' so schreibt, dass jeder sie lesen kann. Vielleicht sind auch hier wie bei den Wandlern nur Kompromisse möglich.


Das müßte jemand ausprobieren, der ihn hat. Vielleicht wird den Testzeitschriften ja auch irgendwann ein Licht aufgehen und sie sehen sich das Verhalten in ihren Tests mal etwas genauer an.


Ich hatte Benchmark mal vor einiger Zeit deswegen angeschrieben, jedoch bisher keine Antwort erhalten. Da werde ich nochmal nachhaken. Wenn auch off-topic: Was die meisten Zeitschriften in Sachen Audio angeht, so bin ich höchst skeptisch. Manche Behauptungen sind absoluter Unfug. Zum Beispiel Berichte über Laufwerke, die die Audiodaten besonders exakt einlesen, da abgeschottet, etc. Was für ein Schwachsinn! Jeder, der 20 EUR für ein 08/15 CD-Laufwerk investiert, kann derartige Statements mit einfachsten Mitteln widerlegen. Sobald die Nutzdaten (2352) einmal korrekt vorliegen, kann mir kein Laufwerk der Welt noch bessere liefern. Einflüsse durch den Transport zum Wandler (Jitter) gelten nicht, da ich zur Not das ganze Geraffel auch in einem GigaByte RAM zwischenspeichern könnte. Dürfte billiger sein als ein ach so tolles Voodoolaufwerk. Die Kompetenz der meisten Autoren scheint sich somit in Grenzen zu halten.
AudioPurist
Ist häufiger hier
#41 erstellt: 16. Jan 2007, 03:45

little-endian schrieb:

Gerade bei den Aufnahmen, die so ans Limit gefahren werden iost das ein ziemlich theoretischer Vorteil. Die bei der CD mögliche Dynamik wird so ja nicht annähernd ausgeschöpft.


Dieser Power-Quatsch hat sich im FM-Radio bis zum Excess gesteigert und ist dann auf die CD-Produktion übergeschwappt.

Normalerweise reichen 16 bit aus um unkomprimierte Tonsignale optimal wiederzugeben, sofern optimal ausgesteuert wird. Bei der Ausbildung an der Produktionssoftware "ProTools" wird den Leuten schon beigebracht möglichst an den Anschlag zu fahren.

Das Geheimnis der Digidesigner: "Wir haben dort 2 bit reserve eingebaut aber das erzählen wir niemandem."


Sobald diese Leute dann an einem anderen System arbeiten - wo es keine unsichtbare Reserve gibt - machen sie das selbe: dubiose Kompressor-Plugins rein und voll ins Rote.

Die meisten Verzerrungen werden schon beim Komprimieren mit unübersichtlichen Tools erzeugt. Mit dieser komprimierten Scheixxe auf CD verschleudert man mindestens 4 bit an Dynamik und handelt sich dazu häßliche verzerrungen ein.

Schöne neue Welt ....

Diletanten der Welt vereinigt Euch!
HiFi_Addicted
Inventar
#42 erstellt: 16. Jan 2007, 07:41
Steinberg baut auch versteckte reserven ein. Sind aber zumindest im Wavelab 5 mehr als 4 Bit.

MfG Christoph
little-endian
Stammgast
#43 erstellt: 21. Jan 2007, 00:35
Kennt jemand einen Editor, dessen Pegelanzeige Signale > 0dBFS zuverlässig darstellen kann?
HiFi_Addicted
Inventar
#44 erstellt: 21. Jan 2007, 00:39
Wavelab mit Resampler auf 192kHz im Masteringbereich. Dann kanns schon mal sein dass das Peakmeter bei manchen CDs bis fast auf +4db rauf geht.

Wenn man vor dem Downsampling (von 192 auf 44,1) auf -0,180db Limitiert (mit Peakmaster) bekommt man eigentlich alles ohne Intersample Overs gemastert. Selbst mit RMS Pegeln von -9db

MfG Christoph
Suche:
Das könnte Dich auch interessieren:
klangunterschiede xlr symmetrisch ... ?
sascha_h-k am 05.05.2005  –  Letzte Antwort am 11.05.2005  –  6 Beiträge
Schaden an D/A Wandlern durch "schmutzige" Töne?
FeG*|_N@irolF am 30.10.2006  –  Letzte Antwort am 31.10.2006  –  4 Beiträge
Jetzt mal Butter bei die Fische, WO ist der Unterschied bei DA-Wandlern?
joshi222 am 18.12.2006  –  Letzte Antwort am 23.12.2006  –  8 Beiträge
Format der Digitalausgägne
PalimPalim am 08.11.2005  –  Letzte Antwort am 10.11.2005  –  3 Beiträge
Frequenzgang bei Tapedecks
niewisch am 21.12.2020  –  Letzte Antwort am 21.12.2020  –  6 Beiträge
HT Belastung bei Testsignalen
pedda-online am 19.12.2003  –  Letzte Antwort am 19.12.2003  –  5 Beiträge
Funktionsweise Surroundsound bei 2.1
AdMo66 am 25.04.2005  –  Letzte Antwort am 25.04.2005  –  3 Beiträge
Ursache von Verzerrungen bei Luftspulen
Soundscape9255 am 23.05.2008  –  Letzte Antwort am 31.05.2008  –  5 Beiträge
Intersample Paeks bei verschiedenen Auflösungen
Rubberhead am 03.01.2017  –  Letzte Antwort am 07.01.2017  –  10 Beiträge
Musikleistung bei Receivern???
Gunnar1 am 09.07.2004  –  Letzte Antwort am 15.07.2004  –  2 Beiträge

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: )
  • Neuestes Mitglied
  • Gesamtzahl an Themen1.551.071
  • Gesamtzahl an Beiträgen21.537.360

Hersteller in diesem Thread Widget schließen