Einfluss der GPU auf Soundqualität

+A -A
Autor
Beitrag
rudl91
Neuling
#1 erstellt: 11. Dez 2015, 15:32
Verehrte Hifi-Experten,

mein derzeitiger HTPC hat eine AMD Radeon HD 6450 verbaut. Ich habe mich damals für die günstigste GPU mit HDMI Ausgang entschieden, da ich dachte, die GPU hätte keinen Einfluss auf die Soundqualität.
HTPC ist via HDMI an dem AV Receiver angeschlossen.
Nun habe ich vor kurzem meinen Gaming PC mit einer GeForce GTX 970 an besagten Verstärker angeschlossen, und siehe da, die Qualität war plötzlich besser... Vor allem die höhen waren viel präziser.

Meine Frage ist also folgende: Bessere GPU = besserer Sound?
*Nightwolf*
Inventar
#2 erstellt: 11. Dez 2015, 16:07
Der Klang bleibt identisch, es sei denn, da pfuscht irgendwas in den Treibern daran herum. Die Grafikkarte gibt nur das weiter, was an Ton vom Prozessor kommt.
rudl91
Neuling
#3 erstellt: 11. Dez 2015, 21:11
und kann der prozessor die qualität beeinflussn? ich versteh einfach ned, wie das mit nem neuen rechner so viel besser klingen kann...
*Nightwolf*
Inventar
#4 erstellt: 11. Dez 2015, 22:05
Psychoakkustik

Der Prozessor beeinflusst den Klang auch nicht. Wie gesagt, es könnte daran liegen, dass irgendwelche Effekte (Loudness, Crystallizer etc.) aktiviert sind/waren.
8Quibhirfd8
Stammgast
#5 erstellt: 11. Dez 2015, 22:47
Der Prozessor wird den Klang nicht beeinflussen, aber es sind doch hier unterschiediche PC´s und Grafikkarten...

Bei "billigen" Notebooks mit schlechter Kühlleistung kann auch ein Unterschied gegenüber Desktop-Pc´s hörbar sein. So wie bei meinem Notebook. Bei gleichem DAC versteht sich.

Bei Desktop-PC´s untereinander schon schwerer vorstellbar (vor allem bei HDMI), wundern würde es mich aber trotzdem nicht.
rudl91
Neuling
#6 erstellt: 11. Dez 2015, 23:14
hmmmmm.. na dann mal danke für die infos
Mickey_Mouse
Inventar
#7 erstellt: 11. Dez 2015, 23:26

8Quibhirfd8 (Beitrag #5) schrieb:
Bei "billigen" Notebooks mit schlechter Kühlleistung kann auch ein Unterschied gegenüber Desktop-Pc´s hörbar sein. So wie bei meinem Notebook. Bei gleichem DAC versteht sich.

Quatsch! (außer du meinst den Lüfter Lärm )
wenn die Daten digital übertragen werden und man da nix falsch eingestellt hat, dann kommen sie 1:1 bitgenau beim DAC an!

jegliche Unterschiede beruhen auf falschen Einstellungen oder schlichtweg Einbildung (in den meisten Fällen letzteres).
8Quibhirfd8
Stammgast
#8 erstellt: 11. Dez 2015, 23:46
Typische Antwort

Wenn ich das schon hör, bitgenau. Aber lassen wir das lieber, darüber ist schon an anderen Stellen sinnlos diskutiert worden.

Ich bin hier raus. Tschüss.
Mickey_Mouse
Inventar
#9 erstellt: 12. Dez 2015, 00:22
Argumente hast du für den Blödsinn aber keine?

ich kann mit meinem PC auch dts Lieder abspielen. Das ist ja bekanntlich ein (verlustbehaftet) komprimiertes Signal, das erst vom AVR wieder ausgepackt wird.
Jetzt mal ein Beispiel: du hast eine Zip-Datei und die wird beim kopieren "beschädigt" (also irgendwie verändert), was passiert dann wenn du die wieder entdecken möchtest? Genau, der Rechner sagt dir: die ist kaputt! Und genau das würde der AVR eben auch machen, wenn er die Daten nicht "bitgenau" bekommt.

Denke mal darüber nach...
audiophilanthrop
Inventar
#10 erstellt: 12. Dez 2015, 00:47
Ob gehörte Unterschiede real sind, ist eine Frage - ob sie so entstehen, wie sich das der Nutzer zusammenreimt, noch einmal eine ganz andere. Beim PC kann immer irgendwas irgendwo verkurbelt sein. Bitgenauigkeit ist eigentlich mehr ein Verifikationsinstrument, um das auszuschließen - wirklich gebraucht wird sie bei PCM-Ton nicht.

Audio über HDMI ist eigentlich eine Krücke, weil die Daten so nebenbei mit dem Bild mitgeschickt werden, ohne eigenes Taktsignal. Das muß erst mühselig rekonstruiert werden - kein Wunder, wenn dabei abhängig vom Receiver schon mal Jitter im einstelligen ns-Bereich rauskommt. Aber ob man das hört...?
Mickey_Mouse
Inventar
#11 erstellt: 12. Dez 2015, 01:15

audiophilanthrop (Beitrag #10) schrieb:
Audio über HDMI ist eigentlich eine Krücke, weil die Daten so nebenbei mit dem Bild mitgeschickt werden, ohne eigenes Taktsignal. Das muß erst mühselig rekonstruiert werden - kein Wunder, wenn dabei abhängig vom Receiver schon mal Jitter im einstelligen ns-Bereich rauskommt.

wie und wo?
überlege dir alleine mal was du da überhaupt sagst.
ich fange hinten an: rauskommt
rauskommen tut ein analoges Signal. Wie passt das zu ns-Bereich der nur in der digitalen Domäne gilt?

S/PDIF arbeitet auch ohne eigenes Takt-Signal, Clock-Recovery ist aber bei diesen "Nahezu-Gleichspannungen" nun wirklich kein Problem. Für das Bild mit 1920x1080x3x8x60 -> 3Gigabit/s ist das absolut gar kein Problem aber der <1,5Mbit/s Ton macht massive Probleme?

Die Daten werden in "Rekordzeit" angeliefert, in einen Puffer geschrieben und dort mit einem eigenen Takt wieder ausgelesen. Kein Jitter, kein Problem...
Hörschnecke
Inventar
#12 erstellt: 12. Dez 2015, 14:19

Mickey_Mouse schrieb:

wenn die Daten digital übertragen werden und man da nix falsch eingestellt hat, dann kommen sie 1:1 bitgenau beim DAC an!


Das ist falsch. Ein Gegenbeispiel sind z.B. manche CD-Player, die ihr digitales Audio um 0.6 dB pegelreduziert am S/PDIF wieder ausgeben. Oder auch ein Fade-In beim Start des (digitalen) Audio einbauen. In beiden Fällen sind die originalen Audiodaten verändert worden bzw. nicht mehr 100% bitgenau.

Es fällt in vielen Fällen nur deshalb nicht auf, weil S/PDIF und HDMI unidirektional übertragen und daher digitale Fehler möglichst unauffällig unterschlagen werden müssen, da eine Neuanforderung korrekter Daten eben nicht möglich ist (mangels Rückkanal). Natürlich funktioniert digitale Audiodatenübertragung in der Regel recht zuverlässig (sonst wäre sie ja nicht so populär), es gibt nur keine eingebaute Datensicherheit, wie es manchem Wunschdenken entspringt. Schon das bedarfsweise Einschalten eines Toslinks oder einer anderen unidirektionalen Quelle bei Titelstart kann Daten verschlucken oder korrumpieren.


Mickey_Mouse schrieb:

S/PDIF arbeitet auch ohne eigenes Takt-Signal [...]


Nicht immer. Viele S/PDIF-Implementierungen sind vom Takt der Quelle nicht entkoppelt (z.B. viele USB-Audiointerfaces, Stichwort ADAPTIVE).

"The receiver does not control the data rate, so it must avoid bit slip by synchronising its reception with the source clock. Many S/PDIF implementations cannot fully decouple the final signal from influence of the source or the interconnect." [1]

Selbst Resamplings/Upsamplings mit eigener Clock des Empfängers verändern übrigens die Bitidentität.


[1] https://en.wikipedia.org/wiki/S/PDIF


[Beitrag von Hörschnecke am 12. Dez 2015, 14:33 bearbeitet]
Mickey_Mouse
Inventar
#13 erstellt: 13. Dez 2015, 17:26
da hat jemand einiges nicht verstanden, bzw. will nur seinen Senf dazu geben...

wenn ich sage, dass MEIN HTPC die Daten 100% bitgenau beim DAC abliefert, dann hat das absolut gar nichts mit einem CD-Player zu tun, der die Daten um -0,6dB absenkt (welcher ist das?!?). Warum sollte ich darüber diskutieren?

S/PDIF hat KEINE eigene Takt-Leitung und der muss immer per Clock-Recovery rekonstruiert werden. Genaus DAS habe ich gesagt.
Gucke dir den Unterscheid zwischen Clock-Recovery und Resampling an, dann weißt du auch warum warum das ebenfalls am Thema vorbei geht.
Hörschnecke
Inventar
#14 erstellt: 13. Dez 2015, 18:09
Wenn bei Dir unter Deinen spezifischen Randbedingungen irgendwas angeblich zu 100% bitgenau ist, dann ist das auch schön und gut. Bitte führe das Forum aber nicht immer mit Deiner Verallgemeinerung in die Irre, daß solche Audiodatentransfers grundsätzlich 100% bitperfect sind, denn das ist falsch. Kennzeichne solche Äußerungen bitte vielmehr als Deine persönliche Meinung!
Mickey_Mouse
Inventar
#15 erstellt: 13. Dez 2015, 18:26
wir reden von PCs und ich haben gesagt, dass die Daten bitgenau übertragen werden, wenn man das richtig einstellt!
das ist nicht meine Meinung, sondern schlicht eine Tatsache!
ich habe bereits geschrieben, dass ich einen dts-Bitstream vom PC ausgebe um das zu testen. Wenn der vom AVR fehlerfrei dekodiert wird, dann kommen die Daten dort auch prinzipiell bitgenau an, wie sollte der ansonsten den dts Stream dekodieren können?!?
Das ist alles bereits geklärt, was soll jetzt die sinnlose Diskussion über CD-Player, die den Pegel um 0,6dB absenken?!?

wenn du etwas zur Testmethode sagen willst oder sonstwas, dann bin ja gerne zu einer Diskussion bereit! Ich kann auch versuchen dir zu helfen die Daten mit deinem PC bitgenau zu übertragen, falls du alleine dazu nicht in der Lage bist, ok?

Ich bleibe der Aussage: man kann mit einem PC Audio Daten bitgenau zu einem DAC übertragen (wenn man "will")!
j!more
Inventar
#16 erstellt: 13. Dez 2015, 18:36

Hörschnecke (Beitrag #12) schrieb:
Nicht immer. Viele S/PDIF-Implementierungen sind vom Takt der Quelle nicht entkoppelt (z.B. viele USB-Audiointerfaces, Stichwort ADAPTIVE).


Welcher zwingende Zusammenhang besteht jetzt nochmal zwischen S/PDIF und USB?

Und ganz allgemein: Ich würde nicht ausschließen, dass es miserable Implementierungen von HDMI und anderen Schnittstellen gibt. Dann taugt diese Implementierung nichts, und gegen schlechtes Design ist man nicht gefeit. Das ändert aber nichts an der prinzipiellen Eignung dieser Art von Schnittstelle für die bitgenaue Übertragung.

Und um CD-Player ging es in diesem Thread nie. Dass man da ganz tief in die Sch***e greifen kann ist selbstredend. Aber wer braucht schon noch CD-Player?
Hörschnecke
Inventar
#17 erstellt: 13. Dez 2015, 18:39

Mickey_Mouse schrieb:

man kann mit einem PC Audio Daten bitgenau zu einem DAC übertragen


So gefällst Du mir schon besser, Möglichkeitsform ist ja ok ...
j!more
Inventar
#18 erstellt: 13. Dez 2015, 19:50

Hörschnecke (Beitrag #17) schrieb:
So gefällst Du mir schon besser, Möglichkeitsform ist ja ok ...


Nicht vergessen: Vollständig heisst das, man kann, wenn man will. Das impliziert - zurecht, meiner Meinung nach - dass es auch Mitmenschen gibt, die nicht wollen. Die audiophilen Versuche, eine erfolgreiche bitgenaue Datenübertragung zu verhindern, sind Legion.
Hörschnecke
Inventar
#19 erstellt: 13. Dez 2015, 20:54
Wollen und Wünschen ändert aber nichts an einem per se limitierten Übertragungsverfahren und dessen Spezifikationen:

"S/PDIF is unidirectional, so it lacks flow control and retransmission facilities. This limits its utility in data communications." [1]

Wer will, kann übrigens auch genügend praktische Beispiele dafür im Forum finden. Unwissen schützt vor Verklärung nicht ...

[1] https://en.wikipedia.org/wiki/S/PDIF
Mickey_Mouse
Inventar
#20 erstellt: 13. Dez 2015, 23:26
man kann auch alles "theoretisch tot labern"

ich behaupte einfach mal, dass die Funkuhr hier im Wohnzimmer "prinzipiell die richtige Uhrzeit anzeigt"!

Auch hier erfolgt die Übertragung vom DCF77 Sender in Frankfurt nur unidirektional, die Uhr bestätigt dem Sender nicht, dass sie die Zeit richtig empfangen hat. Manchmal tut sie das auch nicht und ignoriert das Signal.

Genauso kann ich auch nicht ausschließen, dass ich vielleicht eine 7 als 1 erkannt habe und daher die Uhrzeit falsch interpretiere, diese Übertragung ist genauso unidrektional, sogar ohne Prüfbit (außer meiner Logik, dass wenn es eben 21:05 war, es sehr unwahrscheinlich ist, dass es einen Moment später 21:01 sein soll).
trotzdem kann ich doch wohl behaupten, dass die Uhr die richtige Zeit anzeigt, oder nicht?

Ein dts-Stream kommt hier so beim AVR an wie er auch auf dem NAS abgespeichert ist, d.h. es erfolgt kein Resampling, es wird nicht der dts-Stream als PCM Signal interpretiert und um 0,6dB abgesenkt usw. usf.
Alles davon würde zwangsweise dazu führen, dass der dts-Stream nicht mehr entpackt werden kann!
prinzipiell wird das Datenstrom also bitgenau übertragen, eine Garantie dafür gibt es allerdings nicht und man muss das natürlich richtig konfigurieren und die Bauteile entsprechend auswählen. Ich war aber davon ausgegangen, dass jemand der sich halbwegs damit auskennt das auch aus meinem ersten Beitrag heraus lesen konnte...
Hörschnecke
Inventar
#21 erstellt: 14. Dez 2015, 02:37
Deine Funkuhr macht nicht sehr viel mehr, als sich auf einen Takt (vgl. "clock") aufzusynchronisieren und mit Jitter nachzuregeln. Für die Funkuhr ist es nicht besonders schwer, einen Takt in der Zukunft mit gewisser Wahrscheinlichkeit "vorherzusagen", auch wenn der Sender längere Zeit ausfällt. Vereinfacht ist das nur ein Abzählvorgang und ein irreführender Vergleich von Dir.

Eine digitale Audiokette sendet vielmehr eine clock plus Audiodatum bei jedem clock. Die Zukunft eines laufenden Musiktitels vorherzusagen bzw. zu erraten, wenn die Audioquelle auch nur für eine Sekunde ausfällt, ist praktisch nicht möglich. Allenfalls bei einzelnen bits kann ein DAC einen educated-guess machen bzw. interpolieren. Verschluckt ein Toslink beim Aktivieren aber z.B. Bits oder eine Audioformaterkennung eines Receivers ist zu träge, dann sind Audiodaten futsch oder besser: nicht mehr bitidentisch. Wenn Dir solche Fälle noch unbekannt sind, lies erstmal im Forum.

Als Du pauschal von "Daten digital übertragen" übertragen gesprochen hattest, hatte ich pauschal erwidert, daß auch CDP manchmal nicht bitidentisch digital übertragen. Kontrolliere mal Deinen eigenen CDP, Mickey_Mouse (falls Du einen hast), ob er einen nichtabschaltbaren Fade-In zu Titelbeginn oder einen Pegelverlust über S/PDIF hat. Da Du in dieser Hinsicht noch völlig ahnungslos bist, könntest Du eine Überraschung hinsichtlich "bitperfect" erleben.
snickers
Stammgast
#22 erstellt: 14. Dez 2015, 04:05

"S/PDIF is unidirectional, so it lacks flow control and retransmission facilities. This limits its utility in data communications." [1]
[1] [url]https://en.wikipedia.org/wiki/S/PDIF
[/url]

jajaja furchtbar. allerdings enthalten die s/pdif frames ein paritätsbit http://www.hardwarebook.info/S/PDIF#The_Coding_Format plus biphase-mark-codierung. bei richtiger auswertung ist die wahrscheinlichkeit einer korrekten übertragung verdammt gut.
Mickey_Mouse
Inventar
#23 erstellt: 14. Dez 2015, 17:33

Hörschnecke (Beitrag #21) schrieb:
Als Du pauschal von "Daten digital übertragen" übertragen gesprochen hattest, hatte ich pauschal erwidert, daß auch CDP manchmal nicht bitidentisch digital übertragen. Kontrolliere mal Deinen eigenen CDP, Mickey_Mouse (falls Du einen hast), ob er einen nichtabschaltbaren Fade-In zu Titelbeginn oder einen Pegelverlust über S/PDIF hat. Da Du in dieser Hinsicht noch völlig ahnungslos bist, könntest Du eine Überraschung hinsichtlich "bitperfect" erleben. :)

ich habe diese Aussage in einem Thread mit der Überschrift: "Einfluss der GPU auf Soundqualität" gepostet!
mir ist komplett unklar, wie man da den Bogen zu irgendwelchen exotischen CD-Playern spannen kann?!? (meiner macht kein Fade-In oder dreht am Pegel)

wir sollten es dabei belassen!
ich weiß, dass mein HTPC (um solche Geräte geht es hier!) die Daten bitgenau überträgt und damit die GPU keinen Einfluss auf den Klang hat!
ich weiß auch, dass ich dafür einige Einstellungen vornehmen muss, z.B. funktioniert das nicht mit jeder Abspielsoftware.
aber genau das habe ich geschrieben...
Hörschnecke
Inventar
#24 erstellt: 14. Dez 2015, 19:39

Mickey_Mouse schrieb:

Bogen zu irgendwelchen exotischen CD-Playern spannen


Durchschnittliche Marantz oder Denon Player werden gemeinhin weniger als "exotisch" angesehen. - Möchtest Du Dein verbürgtes Modell zum Abschluß dieser Episode noch nennen?
Mickey_Mouse
Inventar
#25 erstellt: 15. Dez 2015, 02:06
ich habe keinen CD-Player mit GPU (um die es hier geht)
ansonsten habe ich nur einen alten CD Player, das ist ein TAG McLaren CD20R. Der spielt aber genauso die dts-Tracks bitgenau ab wie die BD-Player auch.

du willst also sagen, dass alle Denon und Marantz den Bitstream nicht 1:1 wiedergeben und man das auch nicht einstellen kann?!?
audiophilanthrop
Inventar
#26 erstellt: 15. Dez 2015, 22:37
Es gibt aber in der Tat solche Geräte, unser cr kann davon ein Liedchen singen. Betroffen sind vermutlich alle auf dem Philips SAA7378 basierenden Modelle (späte 90er bis Mitte 00er Jahre), z.B. Philips CD750/1/3 oder Marantz CD4000/5000/6000. Diese senken aus Rücksicht auf das eingebaute Dgitalfilter den Pegel um ca. 0,5 dB ab und geben das Signal dann leider in dieser Form auch über S/P-DIF aus. Wobei man dem Chip anscheinend auch gut zureden kann.
Mickey_Mouse
Inventar
#27 erstellt: 15. Dez 2015, 22:51
das mag ja alles sein, nur haben die eine GPU? Oder was haben diese Geräte überhaupt mit einem aktuellen HTPC zu tun?!?

in der Schule wäre der erste Beitrag von Hörschnecke in diesem Thread (und in anderen auch...) ein ganz einfaches: Thema verfehlt, 6 setzen.
nur ist damit nicht einfach wie in der Schule Schluss, sondern in einem Forum wie hier wird da noch seitenlang weiter am Thema vorbei gefaselt...
uncharted
Ist häufiger hier
#28 erstellt: 19. Dez 2015, 12:59
die musikwiedergabe am pc hat auch mit der latenz zu tun und wie sauber das signal verarbeitet werden kann(jitter).
in dem zusammhenag kann ich dir das progamm fidelizer(einfach googlen) empfehlen, das optimiert deinen pc für audio.
zusammen mit foobar richtig eingestellt(steht dort beschrieben), kannst du sicher noch was rausholen.
würde ich aber nicht auf deinem gamingpc machen, oder wenn dann nur die minimalen voreinstellungen.
hatte vorher 100ms latenz, ist dann auf 50 runter.

wenn dein neuer gamingpc über eine ssd verfügt von der die musik abgespielt wird, würde das auch einen unterschied machen.

du kannst an deinem nicht ssd pc mal nen radiostream laufen lassen, dann hast du auch nicht die einstreuung der festplatte mit drin.
jonath
Inventar
#29 erstellt: 19. Dez 2015, 14:37

uncharted (Beitrag #28) schrieb:

wenn dein neuer gamingpc über eine ssd verfügt von der die musik abgespielt wird, würde das auch einen unterschied machen..


http://memesvault.com/wp-content/uploads/Wat-Meme-Tumblr-04.jpg

Jetzt wird es aber abenteuerlich. Und dieses Optimierungszeug klingt sehr stark nach Bullshit. Was für einen Unterschied soll den überhaupts die Latenz bei Audio ausmachen? Ob du das Signal früher oder später hörst ist vollkommen egal.
Mickey_Mouse
Inventar
#30 erstellt: 19. Dez 2015, 15:40
natürlich ist das Bullshit!
was interessiert es denn wenn die Musik mit 50ms statt 100ms Latenz abgespielt wird?!?
wenn das Bild dazu kommt, dann macht es etwas aus. Da muss ich aber sogar den Ton absichtlich um ca. 120ms verzögern, weil das die Bearbeitungszeit von Videoprozessor, Beamer und Co. ist.
jonath
Inventar
#31 erstellt: 19. Dez 2015, 16:16

Mickey_Mouse (Beitrag #30) schrieb:

wenn das Bild dazu kommt, dann macht es etwas aus. Da muss ich aber sogar den Ton absichtlich um ca. 120ms verzögern, weil das die Bearbeitungszeit von Videoprozessor, Beamer und Co. ist.


Und selbst da wäre es egal, wozu gibt es denn Lip sync? Notfalls kann man sowas auch in der Wiedergabesoftware korrigieren.

Aber ich wette, dass jetzt gleich ein Midi Beispiel reinkommt.


[Beitrag von jonath am 19. Dez 2015, 16:17 bearbeitet]
uncharted
Ist häufiger hier
#32 erstellt: 19. Dez 2015, 16:41
vielleicht erstmal testen bevor du es mit bullshit abtust, aber ich habe nichts anderes erwartet hier, vielleicht ist ja der threadersteller aufgeschlossener und es hilft ihm:P
shaboo
Stammgast
#33 erstellt: 20. Dez 2015, 12:33

uncharted (Beitrag #32) schrieb:
vielleicht erstmal testen bevor du es mit bullshit abtust, aber ich habe nichts anderes erwartet hier, ...

Aber was erwartest Du denn bitte bei abenteuerlichen Thesen wie "Musik klingt von SSD besser als von Festplatte" ernsthaft für eine Reaktion? Insbesondere, wenn man solche Dinge in den Raum wirft, ohne den Leuten zugleich auch eine Erklärung anzubieten, die zumindest deren Plausibilität belegt.


[Beitrag von shaboo am 20. Dez 2015, 12:34 bearbeitet]
j!more
Inventar
#34 erstellt: 20. Dez 2015, 21:11

uncharted (Beitrag #28) schrieb:
100ms latenz, ist dann auf 50 runter.


Und jetzt hörst Du ein und die selbe Musik nicht etwas besser oder schlechter, sondern 50 Millisekunden früher. Bringt Dich das weiter im Leben?

uncharted (Beitrag #28) schrieb:
du kannst an deinem nicht ssd pc mal nen radiostream laufen lassen, dann hast du auch nicht die einstreuung der festplatte mit drin.


- Hast Du eine ungefähre Vorstellung von der Pufferung und der damit verbundenen Latenz beim Streamen? Ich meine, weil Dir das doch am Herzen liegt.

- Welche Probleme haben Festplatten Deiner Meinung nach bei Audioanwendungen? Was da pro Zeiteinheit zu übertragen und anschließend von der CPU zu verarbeiten ist, stürzt jeden einigermaßen modernen Rechner in eine tiefe Sinnkrise. Der ist froh über jede noch so kleine Schleife, die ihn das Betriebssystem drehen läßt und würde sich sonst vor Langeweile ins Schwert stürzen.

Dieses Gebiet ist eben nicht "uncharted", sondern vollständig erkundet.
Suche:
Das könnte Dich auch interessieren:
Störgeräusche bei "hoher" GPU-Auslastung
wunderwaffel am 27.08.2023  –  Letzte Antwort am 05.09.2023  –  24 Beiträge
Über GPU HDMI auf TV nur Stereo!
Descent57 am 21.01.2018  –  Letzte Antwort am 22.01.2019  –  12 Beiträge
Schlechte Soundqualität
Zeron am 02.05.2009  –  Letzte Antwort am 02.05.2009  –  2 Beiträge
Allgemeine Frage zur Soundqualität
SpartaN2 am 24.04.2011  –  Letzte Antwort am 30.04.2011  –  24 Beiträge
Realtek alc662 - Soundqualität?
KetzZza am 23.08.2009  –  Letzte Antwort am 26.08.2009  –  4 Beiträge
PC Schlechte SoundQualität
megashooter am 22.10.2012  –  Letzte Antwort am 24.10.2012  –  11 Beiträge
Soundqualität von Onboard Sound
anacoma am 18.07.2007  –  Letzte Antwort am 19.07.2007  –  8 Beiträge
HDMI Grafikkarten: Soundqualität?
bedahr am 25.11.2007  –  Letzte Antwort am 01.12.2007  –  15 Beiträge
Laptop an Stereoanlage, mässige Soundqualität
wob100 am 13.02.2013  –  Letzte Antwort am 15.02.2013  –  10 Beiträge
Einfluss des Cd-Player bzw. Recorder auf die Klangqualität
pendolino5 am 28.12.2005  –  Letzte Antwort am 31.12.2005  –  4 Beiträge
Foren Archiv
2015

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: 2 )
  • Neuestes MitgliedChriscOg
  • Gesamtzahl an Themen1.551.070
  • Gesamtzahl an Beiträgen21.537.344

Hersteller in diesem Thread Widget schließen