Gehe zu Seite: |vorherige| Erste . 10 . 16 17 18 19 20 21 22 23 24 25 . 30 . Letzte |nächste|

Yamaha AI -Top oder Flop? Eure Meinungen und Erfahrungen sind gefragt

+A -A
Autor
Beitrag
Bart1893
Inventar
#956 erstellt: 21. Jan 2020, 18:21

fplgoe (Beitrag #955) schrieb:

Bart1893 (Beitrag #951) schrieb:
...werde ich mit dem Anwalt drohen. Verarschen lasse ich mich auch nicht.

Du hast schlicht keinen juristisch durchsetzbaren Anspruch auf die Freischaltung, weil es beim Verkauf kein entsprechend beworbenes oder angekündigtes kaufentscheidendes Feature war. Was rein technisch möglich ist, muss noch lange nicht von allen Herstellern umgesetzt werden.

Falls Du also einen Anwalt findest, der Dir Dein Vorhaben nicht ausreden will, hast Du einen Kurpfuscher erwischt, der Dir nur das Geld aus der Tasche zieht. Und ein klein wenig übertrieben ist das Vorhaben wohl ohnehin, glaubst Du ernsthaft, dass ein weltweit agierender Konzern nur wegen eines klagenden Users seine Firmware überarbeitet?


Für mich ne wesentliche Kaufeigenschaft. Es steht NeuralX dran, kommt aber nicht raus. Dann müssen sie das ändern und selbstverständlich ist diese Eigenschaft eine Wesentliche. Das ist auch eine Frage von minimalster Zielgruppenorientiertheit, so eine Kleinigkeit zu fixen. Zumal die Eigenschaft vorhanden ist.
fplgoe
Inventar
#957 erstellt: 21. Jan 2020, 18:30
Ich gebe Dir völlig recht, es wäre schön, wenn sie das machen würden. Aber rechtliche Schritte kannst Du Dir sparen, denn natürlich kommt Neural:x raus, nur nicht mit jeder Quelle. Und das steht so auch nicht auf dem Gerät und nicht mal in der Anleitung, weil es bei Konstruktion des Gerätes schlicht kein Thema war.


[Beitrag von fplgoe am 21. Jan 2020, 18:30 bearbeitet]
Passat
Inventar
#958 erstellt: 21. Jan 2020, 18:38
Du wirst damit nicht durchkommen, denn das Verhalten ist explizit so in der Anleitung erwähnt.
Auf Seite 81 der Anleitung steht:

Der Neural:X-Dekoder ist für Signale der Art Dolby Digital Plus und Dolby True HD nicht verfügbar.


Und da die Anleitung bei Yamaha herunterladbar ist (war sie sogar schon, bevor das Gerät im Handel verfügbar war), konntest du von der Einschränkung vor dem Kauf wissen. Du hast das Produkt also im Wissen dieser Einschränkung gekauft.
Wenn du das Verhalten nicht kanntest, hast du dich vor dem Kauf nicht ausreichend informiert.

Es ist also kein Bug, sondern ein Feature.
Juristisch wirst du den Anspruch nicht durchsetzen können, da eine Freischaltung nie von Yamaha beworben oder angekündigt wurde.

Zudem muß ein Feature auch nicht zwingend mit anderen Features zusammenarbeiten können.
Z.B. arbeitet Surround Ai auch nicht mit den Yamaha DSPs zusammen.

Grüße
Roman
CommanderROR
Inventar
#959 erstellt: 21. Jan 2020, 18:40
Genau. Zum Zeitpunkt der Veröffentlichung war es seitens Dolby nicht vorgesehen, dass andere Upmixer verwendet werden können. Nach derzeitigem Stand kann Yamaha die Einschränkung entfernen, müssen sie aber nicht.
burkm
Inventar
#960 erstellt: 21. Jan 2020, 19:32
Es ist halt immer wieder eine Krux, dass Einige Ihre Erwartungen und Wünsche gleichsetzen mit den nachvollziehbaren zugesicherten Eigenschaften seitens des Herstellers, so "weh" der Unterschied auch manchmal tun mag.
Seien es Ausstattung, Firmware, Features usw.

Man darf nicht vergessen, dass solche zusätzlichen Dinge Kosten verursachen, die der Hersteller normalerweise scheut wie "der Teufel das Weihwasser"
Diese Dinge werden zudem auch immer wieder dazu genutzt, neue Hardware mit neuer Firmware zusammen zu verkaufen, was den Herstellern auch nicht zu verdenken ist, da sie Ihre Produktion und den Abverkauf neuer Geräte natürlich am Laufen halten oder sogar steigern wollen.
Nicht umsonst haben die Hersteller die längeren Laufzeiten auf den jährlichen Modellwechsel umgestellt, um aus der kostenlosen "Nachlieferungsmühle/-falle" herauszukommen und um den Verkauf weiter anzukurbeln durch jährlich "neue" Modelle mit meist nur geringem "Neuigkeitswert". Weltbewegende "Neuheiten" kann man eben nicht in diesem schnellen Rhythmus bewerkstelligen, also müsse ersatzweise andere Anreize geschaffen oder nur geringe Modifikationen werbemäßig deutlich übersteigert dargestellt werden. Kennt man auch von anderen Branchen...

Man hat einen (durchsetzbaren) Anspruch darauf, dass man das erhält, was der Hersteller - nachvollziehbar - zum Zeitpunkt des Kaufes zugesagt hat, alles Andere kann man sich zwar wünschen, aber ob es dann in Erfüllung geht (meist eher nicht), steht in den "Sternen". Das ist nun mal die "grausame" Realität...


[Beitrag von burkm am 22. Jan 2020, 14:53 bearbeitet]
Junger_Schwede
Inventar
#961 erstellt: 22. Jan 2020, 10:37

Bart1893 (Beitrag #956) schrieb:

Für mich ne wesentliche Kaufeigenschaft. Es steht NeuralX dran, kommt aber nicht raus. Dann müssen sie das ändern und selbstverständlich ist diese Eigenschaft eine Wesentliche. Das ist auch eine Frage von minimalster Zielgruppenorientiertheit, so eine Kleinigkeit zu fixen. Zumal die Eigenschaft vorhanden ist.

Sie könnten ja extra für dich überall "Teilweise Neutral:X", "Teilweise Stereo", "Teilweise DTS" usw. dran schreiben.
Du hast vielleicht Vorstellungen...
#-Gerald_Z-#
Stammgast
#962 erstellt: 22. Jan 2020, 13:56
Oder einfach mal „teilweise“ überhitzte nichts bringende Diskussionen zu unterlassen, bis neue Infos (Geräte) von Yamaha eintrudeln.

Ist dieses Jahr mit einer Vorstufe zu rechnen, wegen dem 2 Jahresabstandes, die dann auch optisch zu den bisherigen Endstufen passt?
fplgoe
Inventar
#963 erstellt: 22. Jan 2020, 22:38

#-Gerald_Z-# (Beitrag #962) schrieb:
...die dann auch optisch zu den bisherigen Endstufen passt?

Wenn man die ersten Eindrücke der neuen Yamaha-Verstärker-Serie verdaut hat (und sich der Optik wegen nicht stundenlang übergeben musste...) wird die Hoffnung auf (Yamaha-)'normal' gestaltete Geräte immer kleiner.

Lass Dich überraschen...


[Beitrag von fplgoe am 22. Jan 2020, 22:39 bearbeitet]
Passat
Inventar
#964 erstellt: 22. Jan 2020, 22:43
Es wird dann natürlich auch eine neue Endstufe mit Hochglanz-Plastikfront geben......

Grüße
Roman
#-Gerald_Z-#
Stammgast
#965 erstellt: 22. Jan 2020, 22:48
Ich hänge halt an meiner alten und hat mit AI rein gar nix zu tun
fplgoe
Inventar
#966 erstellt: 22. Jan 2020, 23:00

Passat (Beitrag #964) schrieb:
...Hochglanz-Plastikfront...



(Wo ist der *kotz*-Smiley, wenn man ihn braucht...)
multit
Inventar
#967 erstellt: 08. Feb 2020, 17:13

hmt (Beitrag #14269) schrieb:

multit (Beitrag #14264) schrieb:

hmt (Beitrag #14262) schrieb:
Nein, da lernt nichts mehr. Das ist nicht möglich, da das Feedback fehlt.

Wäre natürlich schön, wenn Du solche absolutistischen Aussagen auch begründest.
Es sollte dem AVR z.B. ein leichtes sein, die verwendeten Lautsärken zu speichern - dafür braucht es kein Feedback.

Und zum Thema Auswirkung der Raumeinmessung auf A.I. empfehle ich diese Lektüre:
https://www.cepro.co...earing_is_believing/
Die Diskussion sollten wir aber vielleicht im passenden Thread fortsetzen - hier ist es etwas offtopic.


Ohne Feedback kein machine learning. Ganz einfach. Wie soll denn da ein neuronales Netz sonst lernen, was richtig ist bzw was besser. Was die Lautstärke angeht, das hat nichts mit AI zu tun, sondern mit einer dynamischen Loudness Kompensation. Leute, nehmt nicht alles für voll, was euch die Werbung erzählt. Gerade nicht bei Buzzwords wie AI.


Hast Du den verlinkten Beitrag gelesen?

Irgendwie scheint es mir, Du seiest hauptsächlich daran interessiert, mir meine vermeintliche Leichtgläubigkeit vor Augen zu halten.
Kannst Du Deine Aussagen praktisch hinterfüttern, also hast Du einen Yamaha-AVR mit AI und hast z.B. mal ausprobiert, wie AI direkt nach einem Reset klingt und wie nach YPAO-Anpassungen?

Die Loudness hat mit der Wirkung von AI meines Erachtens gar nichts zu tun - sie ist übrigens auch schon vor YPAO Einmessung verfügbar.
hmt
Inventar
#968 erstellt: 08. Feb 2020, 17:42
Ja habe ich. Und ja Loudness hat mit AI nichts zu tun. Habe ich auch nicht behauptet. Und nein, ich brauche hier nichts zu unterfüttern, was technisch nicht möglich ist. Und ob da nun irgendjemand meint, dass sich AI nach einer Weile anders anhört interessiert mich nicht. Die Leute hören so viel, wenn sie der Meinung sind, dass es einen Unterschied geben müsse.

Gegenfrage, hast du das mal getan? Per Doppelblindtest und mit Messungen unterfüttert?

Den Link habe ich nicht gelesen. Muss ich auch nicht, es gilt, was ich oben schrieb. Da muss ich nicht jede Art von Werbung kommentieren.


[Beitrag von hmt am 08. Feb 2020, 17:45 bearbeitet]
BassTrap
Inventar
#969 erstellt: 08. Feb 2020, 17:57

multit (Beitrag #967) schrieb:
Hast Du den verlinkten Beitrag gelesen?

Dort steht viel. Worauf genau beziehst Du Dich?
Etwa auf: "“When we do the room calibration not only do we calibrate the speakers, we also take the additional step to measure the room acoustics, and we feed that information into the Surround:AI algorithms to tailor the DSP,” explains Shea."
Das Ergebnis der Raumkalibrierung in Surround:AI einfliessen zu lassen, kann nicht als Lernen bezeichnet werden. Dabei handelt es sich lediglich um eine Parameterisierung.

Oder auf: "Surround:AI is active and computing all the time. It’s analyzing the soundtrack, speaker placement, the room".
Daß Surround:AI die ganze Zeit die Lautsprecherposition und den Raum analysiert, kann nicht stimmen. Wozu auch. Daran ändert sich während der Wiedergabe eines Films ja nichts. Da muß sich der werte Herr verplappert haben oder er wurde falsch wiedergegeben.

In dem Artikel steht nirgendwo das Wort "learn" oder eine davon abgewandelte Form.
Auf yamaha.com steht auch nichts davon, daß Surround:AI dazulernen würde: https://hub.yamaha.com/what-is-surroundai/
Aber dort steht was davon:
https://www.mactechn...Displays-172312.html
"Mit Hilfe einer riesigen und stetig wachsenden Datenbank sowie unterstützt durch Machine Learning soll die Yamaha Sound-KI permanent das Klangbild überwachen und dazu lernen. "
https://hifi-ifas.de...urroundai-von-yamaha
"Mit Hilfe einer riesigen und stetig wachsenden Datenbank sowie unterstützt durch Machine Learning optimiert die Sound-KI permanent das Klangbild und lernt beständig dazu."
Da, wie hmt bereits mehrfach bemerkte, hierzu (zum Dazulernen) das Feedback (angeschlossenes Mikro und Bewertung durch einen Menschen) fehlt, können diese Aussagen nicht stimmen.
Dadof3
Moderator
#970 erstellt: 08. Feb 2020, 19:25
Für die anderen: Die Diskussion ist eigentlich hier entstanden.


multit (Beitrag #967) schrieb:
Kannst Du Deine Aussagen praktisch hinterfüttern, also hast Du einen Yamaha-AVR mit AI und hast z.B. mal ausprobiert, wie AI direkt nach einem Reset klingt und wie nach YPAO-Anpassungen?

Hast du es ausprobiert? Die von dir geschilderten längerfristigen Veränderungen sind kein Maßstab - das ist dasselbe, wenn Leute hören, dass sich ihre Lautsprecher oder gar Verstärker oder Kabel "einspielen". Was sich da verändert, ist die Wahrnehmung, nicht der produzierte Schall.

Rein technisch hat hmt jedenfalls Recht: Ohne Feedback ist kein Lernen möglich, wenn da also nicht die ganze Zeit ein Mikrofon mitläuft, kann die Software alleine bei dir zuhause nicht lernen.

Sie könnte höchstens durch Prozesse bei Yamaha dazulernen und sich laufend über das Internet aktualisieren.
burkm
Inventar
#971 erstellt: 08. Feb 2020, 19:40
Es wird doch sehr viel "hinein geheimnist" in die Begriffe "AI/KI", weil die Begriffe eine "große Spannweite" und keine genaue Abgrenzung haben. Das kann von "ganz simpel" bis "außerordentlich komplex" reichen.

Bei "Deep Learning" sind die Algorithmen außerordentlich komplex und rechenintensiv. Kann mir aber, angesichts der meist eher sparsamen DSP-, CPU- und Speicherausstattung der AVRs, nicht vorstellen, dass das hier - in Echtzeit - zum Einsatz kommen sollte. Es wird sicherlich einen Algorithmus geben, der Quellmaterialinhalte "irgendwie" bewertet/analysiert (mit dem ihm eigenen Toleranzfeld) und daraus ableitet, welche vorhandenen DSP-Funktionen momentan dafür eingesetzt werden. Ob das einem dann persönlich und subjektiv zusagt, steht noch auf einem anderen Blatt. Deswegen wird da wohl auch eher "vorsichtig und verhalten" gearbeitet, damit hier nicht Kritik hochkochen kann. Schließlich soll es "etwas Positives" sein.

Es wäre auch irgendwie verwunderlich, dass Yamaha schon seit Jahren keine vernünftige Raumeinmessfunktion im Bassbereich hin bekommt, dafür aber im Vergleich zum Wettbewerb überaus "intelligente" Lernalgorithmen, die sich dem Benutzerverhalten per "Machine Learning" intelligent anpassen würden und dass bei annähernd gleichen "Straßenpreisen" wie der Wettbewerb...

Erinnert mich irgendwie auch an die "intelligenten" Bildalgorithmen, die schon seit Jahren bei den TVs herumgeistern, und die auch auf Grund irgendwelcher interner "Datenbanken" tätig sein sollen. Wirklich gemerkt habe ich davon bis heute nichts, wenn man sich mal die unterschiedlichen Anwendungen davon bei den Herstellern im Vergleich ansieht...

Eine weitergehende "Lern-"Funktion halte ich deshalb eher für einen Marketing-Gimmick, da hierfür einfach die Resourcen fehlen dürften. Derjenige, der dafür zuständig ist/sein soll, wird das in eher "blumige", wenig greifbare Worte und Begriffe fassen wollen, damit man ihm rechtlich nicht etwas anhängen kann, um einerseits den wirksamen Marktwert dieser Eigenschaft nicht zu schmälern und andererseits die Fantasie der "Zuhörer" anzuheizen.

Da wird sich dann eher etwas im Verständnis der Anwender abspielen als in Realiter...


[Beitrag von burkm am 08. Feb 2020, 19:56 bearbeitet]
hmt
Inventar
#972 erstellt: 08. Feb 2020, 20:07
Aus meiner Sicht hat Yamaha da wahrscheinlich ein Neuronales Netz darauf trainiert Filminhalte bzw Genres anhand des Signals zu erkennen. Das Ergebnis wird dann angewandt in den AVRs. Dazu passt ja auch das Marketing, da soll der User nicht mehr die Szenen DSPs andauernd ändern müssen, sondern der AVR erkennt anhand der Tonspur dann selbst, ob er SciFi, Adventure und was auch immer anwenden soll. Ob das jetzt nun kriegsentscheidend ist...
Wichtiger wäre imo weiterhin eine funktionierende Einmessung im Bass, denn da patzt Yamaha weiterhin. Imo ist Surround AI eine Lösung für ein Problem, das kaum einer hat.
fplgoe
Inventar
#973 erstellt: 08. Feb 2020, 20:24

hmt (Beitrag #972) schrieb:
...ist Surround AI eine Lösung für ein Problem, das kaum einer hat.

Das sehe ich anders. AI ist eigentlich die Anpassung an die meisten (kleinen) 'Probleme', weil es versucht, für jeden Sonderfall einzugreifen und die Einstellungen zu optimieren.

Dass das nicht immer perfekt klappt, ist klar. Vielleicht ist es einfach so, dass es durch die Eingriffe des Nutzers (wenn man z.B. bei bestimmten Quellen oder Signalen den Dialogpegel, YPAO-Volume o.ä. ein oder ausschaltet, Lautstärke bei Wechsel des Streams hoch oder herunterdreht, keine Ahnung...) dazulernt und vielleicht voreilend ausführt.

Das ist auch in anderen Bereichen ja nicht ganz unmöglich, das DSG meines Autos lernt z.B. nach meinem Fahrstil, wann welche Gänge sinnvoll auszuwählen sind. Da hat sich das Schaltverhalten merklich innerhalb der ersten 1.000-2.000km verändert. Warum soll so etwas nicht bei einem Verstärker möglich sein.

Dass da eine echte Intelligenz am Werke ist und ein Eigenleben erwächst will ich nicht hoffen, sonst schreibt mir mein Yammi demnächst abends eher beruhigendes Programm vor, damit ich besser schlafen kann.
hmt
Inventar
#974 erstellt: 08. Feb 2020, 20:28
Und welche Probleme wären das? Das größte Problem, was ein User mit einem Yamaha AVR hat sind imo die unkorrigierten Raummoden.
Dadof3
Moderator
#975 erstellt: 08. Feb 2020, 20:50

fplgoe (Beitrag #973) schrieb:
Das ist auch in anderen Bereichen ja nicht ganz unmöglich, das DSG meines Autos lernt z.B. nach meinem Fahrstil, wann welche Gänge sinnvoll auszuwählen sind. Da hat sich das Schaltverhalten merklich innerhalb der ersten 1.000-2.000km verändert. Warum soll so etwas nicht bei einem Verstärker möglich sein.

Weil dein Auto einen Input bekommt: Wann du wie Gas gibst, bremst, lenkst usw. Vielleicht hat es auch Beschleunigungssensoren verbaut. Daran kann es deinen Fahrstil erkennen und sich anpassen.

Den AVR macht man an und lässt ihn laufen. Aus welchem Input sollte er lernen, woran soll er sich anpassen?
fplgoe
Inventar
#976 erstellt: 08. Feb 2020, 21:10
Vielleicht an dem Verhalten und den Einstellungen, die Du korrigierst, welchen Upmixer Du bei welchem Stream auswählst, welche Pegel Du anpasst (z.B. Dialogpegel)... keine Ahnung. Ist ja auch nur eine Idee.

Ich sage ja, ein Wunder erwarte ich da nicht und schon gar nicht, dass da ernsthafte KI hinter steckt. Aber -für mich- mach das AI deutlich mehr richtig als falsch und ich empfinde es eindeutig als Gewinn, egal wie das technisch nun genau umgesetzt wird.

Und Thema Subwoofereinmessung: Offensichtlich scheint das ja nicht ganz so einfach zu sein, denn weder das MCACC, noch Onkyos AccuEQ sind da besser, als Yamahas YPAO. Bis auf Audyssey und solche Spezi's wie Antimode haben da ja wohl alle Massen-Einmess-Systeme ihre Probleme mit. Klar wäre es schön, wenn da was passiert, wenn es aber so einfach wäre, dann hätten alle Hersteller das Problem schon gelöst.
burkm
Inventar
#977 erstellt: 08. Feb 2020, 21:13

Dadof3 (Beitrag #975) schrieb:

fplgoe (Beitrag #973) schrieb:
Das ist auch in anderen Bereichen ja nicht ganz unmöglich, das DSG meines Autos lernt z.B. nach meinem Fahrstil, wann welche Gänge sinnvoll auszuwählen sind. Da hat sich das Schaltverhalten merklich innerhalb der ersten 1.000-2.000km verändert. Warum soll so etwas nicht bei einem Verstärker möglich sein.

Weil dein Auto einen Input bekommt: Wann du wie Gas gibst, bremst, lenkst usw. Vielleicht hat es auch Beschleunigungssensoren verbaut. Daran kann es deinen Fahrstil erkennen und sich anpassen.

Den AVR macht man an und lässt ihn laufen. Aus welchem Input sollte er lernen, woran soll er sich anpassen?


Meines Erachtens hat heutzutage (fast) jedes aktuelle Kfz irgendwelche Beschleunigungsensoren verbaut, weil ohne ging auch ABS z.B. nicht.
hmt
Inventar
#978 erstellt: 08. Feb 2020, 21:16

fplgoe (Beitrag #976) schrieb:
Vielleicht an dem Verhalten und den Einstellungen, die Du korrigierst, welchen Upmixer Du bei welchem Stream auswählst, welche Pegel Du anpasst (z.B. Dialogpegel)... keine Ahnung. Ist ja auch nur eine Idee.

Ich sage ja, ein Wunder erwarte ich da nicht und schon gar nicht, dass da ernsthafte KI hinter steckt. Aber -für mich- mach das AI deutlich mehr richtig als falsch und ich empfinde es eindeutig als Gewinn, egal wie das technisch nun genau umgesetzt wird.

Und Thema Subwoofereinmessung: Offensichtlich scheint das ja nicht ganz so einfach zu sein, denn weder das MCACC, noch Onkyos AccuEQ sind da besser, als Yamahas YPAO. Bis auf Audyssey und solche Spezi's wie Antimode haben da ja wohl alle Massen-Einmess-Systeme ihre Probleme mit. Klar wäre es schön, wenn da was passiert, wenn es aber so einfach wäre, dann hätten alle Hersteller das Problem schon gelöst.


Dirac macht es auch sehr gut, ebenso ARC. Und Hexenwerk ist das nicht. Per REW messen und die Optimierung des Programms hat bei mir zB am PC im Bass mit dem MiniDSP sehr gute Ergebnisse gebracht. Alles was es braucht ist ein Voll parametrischer EQ im Bass mit 10 Bändern und einen halbwegs klugen Algo. Mehr nicht. Strenggenommen sind Yamaha und Pioneer die einzigen (Pioneer ist gleich Onkyo), die das nicht hinbekommen.
fplgoe
Inventar
#979 erstellt: 08. Feb 2020, 21:32

hmt (Beitrag #978) schrieb:
...(Pioneer ist gleich Onkyo), die das nicht hinbekommen.
Das ist es jetzt, Pioneer hat es aber auch zu seinen 'echten' MCACC-Zeiten nicht hinbekommen.
winne2
Inventar
#980 erstellt: 08. Feb 2020, 21:51
"jedes aktuelle Kfz irgendwelche Beschleunigungsensoren verbaut, weil ohne ging auch ABS z.B. nicht. "

Falsch.... ABS wird per Radsensoren am Zahnkranz abgenommen

Autoschrauben ist mein zweites Hobby
Nighthawk66
Stammgast
#981 erstellt: 08. Feb 2020, 21:57

Dadof3 (Beitrag #970) schrieb:
Für die anderen: Die Diskussion ist eigentlich hier entstanden.

Rein technisch hat hmt jedenfalls Recht: Ohne Feedback ist kein Lernen möglich, wenn da also nicht die ganze Zeit ein Mikrofon mitläuft, kann die Software alleine bei dir zuhause nicht lernen.

Sie könnte höchstens durch Prozesse bei Yamaha dazulernen und sich laufend über das Internet aktualisieren.


Warum muss ein Mikrofon mitlaufen um zu lernen?? Dem Raum und die Boxen "kennt" der Receiver durch das Einmessen mit dem Microfon.
Den Audiostream bekommt der Receiver doch z.B. direkt über HDMI geliefert, den kann er doch analysieren und mit dem Entsprechendem DSP wiedergeben. Jeder Film wird doch mal simpel ausgedrückt mit einer Tonspur ausgeliefert, und je nachdem was gerade für ein "Frequenzband" abläuft, hat der Receiver dann eine Routine (DSP Programm) die dann greift....
hmt
Inventar
#982 erstellt: 08. Feb 2020, 22:02

fplgoe (Beitrag #979) schrieb:

hmt (Beitrag #978) schrieb:
...(Pioneer ist gleich Onkyo), die das nicht hinbekommen.
Das ist es jetzt, Pioneer hat es aber auch zu seinen 'echten' MCACC-Zeiten nicht hinbekommen.


Onkyo hat auf MCACC light aka AccuEq gewechselt, als sie von Pioneer übernommen wurden. Ist also schon das gleiche System.


@nighthawk

Nochmal: es fehlt das Feedback. Der AVR weiss nicht, ob er richtig lag. Er kennt nicht das Ergebnis.


[Beitrag von hmt am 08. Feb 2020, 22:06 bearbeitet]
burkm
Inventar
#983 erstellt: 08. Feb 2020, 22:12

Nighthawk66 (Beitrag #981) schrieb:

Dadof3 (Beitrag #970) schrieb:
Für die anderen: Die Diskussion ist eigentlich hier entstanden.

Rein technisch hat hmt jedenfalls Recht: Ohne Feedback ist kein Lernen möglich, wenn da also nicht die ganze Zeit ein Mikrofon mitläuft, kann die Software alleine bei dir zuhause nicht lernen.

Sie könnte höchstens durch Prozesse bei Yamaha dazulernen und sich laufend über das Internet aktualisieren.


Warum muss ein Mikrofon mitlaufen um zu lernen?? Dem Raum und die Boxen "kennt" der Receiver durch das Einmessen mit dem Microfon.
Den Audiostream bekommt der Receiver doch z.B. direkt über HDMI geliefert, den kann er doch analysieren und mit dem Entsprechendem DSP wiedergeben. Jeder Film wird doch mal simpel ausgedrückt mit einer Tonspur ausgeliefert, und je nachdem was gerade für ein "Frequenzband" abläuft, hat der Receiver dann eine Routine (DSP Programm) die dann greift....


Nein.
Das System kennt weder "den Raum" noch die verbauten LS, weil ihm dazu keinerlei Daten zur Verfügung gestellt werden und wurden.
Einzig das resultierende Schallfeld am Messort ist bekannt, das aber auf vielerlei Weise entstanden sein kann. Selbst die Anordnung der LS und deren Position ist nur "indirekt" bekannt, da die Messungen in der Reihenfolge beliebig sein können, ohne dass das (meist) seitens des Yamaha erkannt wird.
Kann man mal durch "Vertauschen" durchprobieren. Anm.: Die Winkelmessung wird bekannterweise ausschließlich zur Anpassung von DSP-Parametern der jeweiligen Programme herangezogen.

Dieses Missverständnis findet man aber recht häufig...
Nighthawk66
Stammgast
#984 erstellt: 08. Feb 2020, 22:38
War ja auch nur so ein Gedanke von mir...
Ich will mich da als Laie auch nicht zu weit aus dem Fenster lehnen


[Beitrag von Nighthawk66 am 08. Feb 2020, 22:38 bearbeitet]
BassTrap
Inventar
#985 erstellt: 08. Feb 2020, 22:42

Nighthawk66 (Beitrag #981) schrieb:
Warum muss ein Mikrofon mitlaufen um zu lernen??

Um ein Mikro ging's erstmalig in meinem Beitrag wegen der Behauptung "optimiert die Sound-KI permanent das Klangbild und lernt beständig dazu".


Den Audiostream bekommt der Receiver doch z.B. direkt über HDMI geliefert, den kann er doch analysieren und mit dem Entsprechendem DSP wiedergeben. Jeder Film wird doch mal simpel ausgedrückt mit einer Tonspur ausgeliefert, und je nachdem was gerade für ein "Frequenzband" abläuft, hat der Receiver dann eine Routine (DSP Programm) die dann greift....

Surround:AI schiebt den Audiostream bzw. Fourier-Transformationen oder ähnliches davon, also irgendetwas aus dem Audiostream aufbereitetes, durch sein künstliches neuronales Netzwerk. Werden dabei Muster erkannt, löst es die Aktionen aus, die ihr zuvor im Labor antrainiert wurden. So funktionieren ganz grob beschrieben alle knNs. Was genau bei Surround:AI abläuft, weiß nur Yamaha. Jeglich Diskussion darüber ist demnach ziemlich müßig.
Dadof3
Moderator
#986 erstellt: 09. Feb 2020, 00:35

Nighthawk66 (Beitrag #981) schrieb:
Warum muss ein Mikrofon mitlaufen um zu lernen?? Dem Raum und die Boxen "kennt" der Receiver durch das Einmessen mit dem Microfon.
Den Audiostream bekommt der Receiver doch z.B. direkt über HDMI geliefert, den kann er doch analysieren und mit dem Entsprechendem DSP wiedergeben. Jeder Film wird doch mal simpel ausgedrückt mit einer Tonspur ausgeliefert, und je nachdem was gerade für ein "Frequenzband" abläuft, hat der Receiver dann eine Routine (DSP Programm) die dann greift....

Das ist dann aber das Anwenden des zuvor (im Yamaha-Labor) Erlernten, er lernt aber nicht dazu.

Stell dir vor, du sollst Bogenschießen üben, mit verbundenen Augen, ohne sehen oder hören oder sonstwie erfahren zu können, wohin der Pfeil geflogen ist. Du wirst es vielleicht mit dem früher Erlernten schaffen, halbwegs in die richtige Richtung zu schießen, aber du wirst nicht mehr besser werden können, weil du nicht weiß, mit welchem Verhalten du besser triffst. Lernen kann man nur, wenn man Feedback über den (Miss-)Erfolg erhält.


[Beitrag von Dadof3 am 09. Feb 2020, 00:37 bearbeitet]
Rainer_Hohn
Inventar
#987 erstellt: 09. Feb 2020, 00:48

burkm (Beitrag #971) schrieb:
Erinnert mich irgendwie auch an die "intelligenten" Bildalgorithmen, die schon seit Jahren bei den TVs herumgeistern, und die auch auf Grund irgendwelcher interner "Datenbanken" tätig sein sollen. Wirklich gemerkt habe ich davon bis heute nichts, wenn man sich mal die unterschiedlichen Anwendungen davon bei den Herstellern im Vergleich ansieht.

Da warte ich auch noch drauf, aus einem 576i Signal echtes UHD skalieren, so als ob es in 4k aufgenommen worden wäre
multit
Inventar
#988 erstellt: 09. Feb 2020, 02:27
Ist schon Hammer was ein paar völlig gut gemeinte Zeilen zu einem Yamaha-Nutzer, der seinen AVR bisher kaum ausnutzt, hier mal mal wieder anrichten.
Weil ich das böse Wort Lernfunktion verwendet habe kommen nun die Besserwisser ohne eigene Praxis um die Ecke und geben Schubladenthesen zum Besten. Ich habe bewusst weder KI, noch Deep Learning noch Artificial Intelligence in den Mund genommen, aber klar - da muss man trotzdem drauf hauen! Ich könnte ja der bösen Werbung verfallen sein und dem User, dem ich geraten habe, das AI mal länger zu benutzen - der könnte sich ja sonst was einbilden und dem gleichen Wahn verfallen... Danke für die Fürsorge, liebe Forenkollegen!

Auf meinen Tipp, dies (die Unterschiede in der Wirkung des AI frisch vs. später) doch mal selbst auszuprobieren ... also das Setup sichern, den AVR zu resetten, AI auszuprobieren, YPAO einmessen lassen, wieder AI auszuprobieren und schließlich wieder altes Setup einspielen und AI zur Gegenprobe checken, mag man nicht eingehen, denn weil was nicht sein kann, kann eben nicht sein.
hmt
Inventar
#989 erstellt: 09. Feb 2020, 02:56
Um zu wissen, dass du falsch lagst, braucht es keine Praxis. So wie du das impliziert hast, kann es nun mal nicht funktionieren. Einen Beweis dafür hast du ebenfalls nicht erbringen können.
Du hast nach einer Begründung gefragt und sie bekommen. Statt hier herumzujammern konntest du auch einfach mal einsehen falsch gelegen zu haben.
multit
Inventar
#990 erstellt: 09. Feb 2020, 03:14
Welcher Beweis bitte? Du legst mir Dinge in den Mund, die ich nie gesagt habe.
Und wir werden uns doch jetzt nicht wegen des Wörtchens "Lerneffekt" streiten wollen.
Schon alleine die Anpassung der Intensität des AI an das Einmessergebnis (z.B. den Hall im Abhörraum berücksichtigend) darf ich auch ohne Deine Einwilligung als Lerneffekt (vor vs. nach Einmessung) bezeichen.
BassTrap
Inventar
#991 erstellt: 09. Feb 2020, 04:01

multit (Beitrag #988) schrieb:
Ist schon Hammer was ein paar völlig gut gemeinte Zeilen zu einem Yamaha-Nutzer, der seinen AVR bisher kaum ausnutzt, hier mal mal wieder anrichten.
Weil ich das böse Wort Lernfunktion verwendet habe kommen nun die Besserwisser ohne eigene Praxis um die Ecke und geben Schubladenthesen zum Besten. Ich habe bewusst weder KI, noch Deep Learning noch Artificial Intelligence in den Mund genommen, aber klar - da muss man trotzdem drauf hauen! Ich könnte ja der bösen Werbung verfallen sein und dem User, dem ich geraten habe, das AI mal länger zu benutzen - der könnte sich ja sonst was einbilden und dem gleichen Wahn verfallen... Danke für die Fürsorge, liebe Forenkollegen!

Oh nein, oh nein, er will nicht AI geschrieben haben, oh nein, oh nein. Und er hat's doch:
http://www.hifi-foru...1&postID=14259#14259: "A.I. berücksichtigt die Höheninformationen und ergänzt sie entsprechend. Auch sollte man dem A.I. etwas Zeit geben - eine Lernfunktion ist da eingebaut und ..."
Erinnert mich irgendwie an Monty Pythons "Das Leben des Brian".


multit (Beitrag #990) schrieb:
Schon alleine die Anpassung der Intensität des AI an das Einmessergebnis (z.B. den Hall im Abhörraum berücksichtigend) darf ich auch ohne Deine Einwilligung als Lerneffekt (vor vs. nach Einmessung) bezeichen.

Das hatte ich oben bereits als Parameterisierung dargestellt. Du selbst schreibst "Anpassung" und münzt diese im selben Atemzug in "Lerneffekt" um. Ganz große Intellektleistung.

Du magst ja rein gar nicht auf meine Argumente gegenüber den Deinen wegen des vor Dir verlinkten Artikels eingehen. Warum?


[Beitrag von BassTrap am 09. Feb 2020, 04:07 bearbeitet]
fplgoe
Inventar
#992 erstellt: 09. Feb 2020, 07:43
Könnt Ihr Euch nicht einfach alle wieder etwas beruhigen?

Manchmal macht es echt keinen Spaß mehr, hier mitzulesen.

Und ja... dem nächsten blöden Spruch vorzubeugen, weil ich ja nicht mitlesen müsste: mich interessiert das Thema im Allgemeinen aber nun mal, nur diese Hackerei und das zerlegen der AI-Funktionen bis in seine atomaren Bestandteile nicht, weil schlicht niemand wissen kann was es eigentlich macht.


[Beitrag von fplgoe am 09. Feb 2020, 07:43 bearbeitet]
burkm
Inventar
#993 erstellt: 09. Feb 2020, 10:54
Genau
Man sollte sich an dem erfreuen, was man hat und was es kann und nicht etwas "hineingeheimnissen" was man selbst gerne haben möchte
Wunsch und Wirklichkeit eben.
Dabei ist es sicherlich hilfreich, nur das zu sehen und zu hören, was auch nachweislich existent ist und nicht in seinem Überschwang irgendwelche Mythen aufbauen...


[Beitrag von burkm am 09. Feb 2020, 10:55 bearbeitet]
multit
Inventar
#994 erstellt: 09. Feb 2020, 11:09
Wie gesagt, ich verstehe die allgemeine Aufregung einiger Forenkollegen aufgrund des Wordings sowieso nicht. Aber Wording wird ja gerne mal aufgegriffen, um zu diskutieren, was selbstverständlich legitim ist.

Ich statuiere: ein Yamaha-AVR mit Surround:AI verfügt über keine eingebaute künstliche Intelligenz im Sinne der allgemein gültigen wissenschaftlichen Definition. Dies ist weder durch die genutzte Rechenkapazität, noch über die vorhandenen Sensorelemente und deren Nutzung möglich. Die Werbeaussage seitens Yamaha ist wie gewohnt überspitzt und kann sich maximal auf ggf. verwendete KI-Routinen serverseitig beziehen, die darin münden, dass ein Surround:AI anhand des zur Verfügung stehenden Soundsignals mehr oder weniger richtig eine Adapation seiner DSP-Parameter (im Sinne von Dialogverstärkung, Erweiterung des Soundfeldes etc.) in Echtzeit vornimmt.

Sollte der Eindruck entstanden sein, dass ich in meinen Beiträgen ein Vorhandensein von künstlicher Intelligenz in einem Yamaha AVR mit Surround:AI zu suggerieren, dann war dies nicht beabsichtigt.

***

Stattdessen berichte ich nochmals von Indizien, die eine nachträgliche Anpassung der Wirkungsweise des Surrorund:AI implizieren:

(1) Etliche User (die Surround:AI nutzen) berichten von unterschiedlicher Ausprägung/Intensität in ihrem Setup

(2) Ein Yamaha-Repräsentant bemerkt in einem Beitrag: "“When we do the room calibration not only do we calibrate the speakers, we also take the additional step to measure the room acoustics, and we feed that information into the Surround:AI algorithms to tailor the DSP,” explains Shea.
“If it’s a live room, hardly any DSP is added, but in a dead room you need more DSP signal processing. The microphone calibration takes all that into account. Surround:AI is active and computing all the time. It’s analyzing the soundtrack, speaker placement, the room—so we know with say Dolby Atmos—we know a bird chirp comes from the right at 45 degrees. We can map the sounds where the sound engineer intended.”

(3) Ich habe in einem Hörexperiment zuhause die Wirkung/Intensität des Surround:AI im Auslieferungszustand, nach Einmessung mit YPAO und nach längerer Nutzungsdauer verglichen und Unterschiede raushören können. Die Unterschiede zwischen vor und nach der Einmessung sind signifikant, währen die Unterschiede nach längerer Laufzeit ehe subtil sind und durchaus auch auf andere Faktoren zurückzuführen sind. Die für einen Vergleich notwendigen zeitlich direkt nacheinander folgende Hörsessions sind möglich durch die Speicherungsfunktion eines beliebigen Setups. Die Hörsessions beruhen aber lediglich auf mein Setup in Kombination mit meinem Gehör. Eine Anpassung der Höhenlautsprecher auf einen gleichen Pegel wurde berücksichtigt. Es wurden jedoch keinerlei Messungen vorgenommen - eine subjektive Wahrnehmung also.

(4) Surround:AI besitzt am AVR keinerlei Möglichkeiten, die Ausprägung/Intensität manuell zu beinflussen

Diese Indizien führten mich zu dem Schluss, dass eine nachträgliche Anpassung der Intensität und Ausprägung beim Nutzer unter Berücksichtigung z.B. seiner beim YPAO gemessenen Rauminformationen erfolgt, um z.B. in einem modernen und halligen Wohnzimmer nicht zu dominant zu wirken.
Dieses Verhalten habe ich als Lerneffekt bezeichnet und einem User geraten, dem AI eine Chance zu geben und länger einzusetzen.

Ich wünsche alle Forenkollegen einen schönen Sonntag und maximalen Spaß mit seiner Anlage, ob nun mit oder ohne Surround:AI.
fplgoe
Inventar
#995 erstellt: 09. Feb 2020, 11:20
Noch was zu dem aktuellen Thema:

Was ist eine Naturblonde mit gefärbten Haaren? (Auch) Eine künstliche Intelligenz...
hmt
Inventar
#996 erstellt: 09. Feb 2020, 11:37
Sorry, aber nichts davon indiziert eine nachträgliche Anpassung. Da steht lediglich, dass das Signal in Echtzeit analysiert wird und der Algo auch deine Einmessergebnisse berücksichtigt. Um das zu ermöglichen, was du meibst muss sich der Algo ansich über die Zeit verändern. Daher auch die Ausführungen zur KI, da ging es nämlich nicht nur um das Wording, sondern die Funktionsweise, die du implizierst.
Und nein, subjektive Hörberichte zählen nicht. Die Leute hören alles möglich, wenn sie daran glauben.


multit (Beitrag #990) schrieb:

Schon alleine die Anpassung der Intensität des AI an das Einmessergebnis (z.B. den Hall im Abhörraum berücksichtigend) darf ich auch ohne Deine Einwilligung als Lerneffekt (vor vs. nach Einmessung) bezeichen.


Nein, nicht im dem Sinne, wie du es hier dargestellt hast, nämlich die Anpassung über die Zeit.


[Beitrag von hmt am 09. Feb 2020, 11:49 bearbeitet]
Dirk.Stoiber
Inventar
#997 erstellt: 09. Feb 2020, 12:27
Surround:AI ist einfach genial. Ich mache mir gar keine Gedanken mehr über den Upmixer. Es passt zu allem was Film angeht.
VF-2_John_Banks
Inventar
#998 erstellt: 09. Feb 2020, 16:07

Dirk.Stoiber (Beitrag #997) schrieb:
Surround:AI ist einfach genial. Ich mache mir gar keine Gedanken mehr über den Upmixer. Es passt zu allem was Film angeht. :prost


Und damit ist eigentlich auch schon alles gesagt!
fplgoe
Inventar
#999 erstellt: 09. Feb 2020, 16:26
Yep, schließe mich an.
CommanderROR
Inventar
#1000 erstellt: 09. Feb 2020, 16:39
Ich auch...😎
Nighthawk66
Stammgast
#1001 erstellt: 09. Feb 2020, 16:58

Dirk.Stoiber (Beitrag #997) schrieb:
Surround:AI ist einfach genial. Ich mache mir gar keine Gedanken mehr über den Upmixer. Es passt zu allem was Film angeht. :prost

Besser hätte ich es auch nicht sagen können
Einfach einschalten und geniessen
BassTrap
Inventar
#1002 erstellt: 09. Feb 2020, 17:06

multit (Beitrag #994) schrieb:
Ich statuiere: ein Yamaha-AVR mit Surround:AI verfügt über keine eingebaute künstliche Intelligenz im Sinne der allgemein gültigen wissenschaftlichen Definition.

Warum denn auf einmal nicht? Bei einer KI sollte zwischen dem Anlernen und dem Anwenden des Angelernten unterschieden werden.
KI bedeutet nicht nur Lernen sondern auch das Anwenden des Erlernten.


Dies ist weder durch die genutzte Rechenkapazität, noch über die vorhandenen Sensorelemente und deren Nutzung möglich.

Hier beziehst Du Dich offenbar auf das Anlernen. Das ist rechenintensiv. Das Anwenden des Erlernten dagegen ist ganz erheblich weniger rechenintensiv.
Beim Lernen müssen hunderte, tausende Samples verarbeitet werden, wobei bei jedem Sample, das ein falsches Ergebnis produziert, die KI justiert werden muß. Beim Anwenden wird jeweils nur ein Sample durch die KI geschickt, und die KI wird dabei nicht justiert sondern es wird einfach nur das Ergebnis abgegriffen. Lernen und Anwenden können sich im Rechenaufwand um >6 Größenordnungen unterscheiden. Basiert die KI auf einem neuronalen Netz, sind die Rechenschritte auch hervorragend parallelisierbar. In ein FPGA integriert dauert die Verarbeitung eines Samples nur Mikrosekunden. Daß Yamaha FPGAs verbaut, ist kein Geheimnis.
fplgoe
Inventar
#1003 erstellt: 09. Feb 2020, 17:10
Leute... ist das Thema immer noch nicht durch?
tomkai3
Inventar
#1004 erstellt: 09. Feb 2020, 17:11
Ich nutze Surround AI nicht nur bei Film sondern auch bei Musik die in Mehrkanal mit DTS oder DD und Atmos vorliegt, nur bei Zwei Kanal Musik habe ich es abgeschaltet, da passt es nicht wirklich...
Jockel100
Hat sich gelöscht
#1005 erstellt: 09. Feb 2020, 17:12

fplgoe (Beitrag #1003) schrieb:
Leute... ist das Thema immer noch nicht durch?


multit
Inventar
#1006 erstellt: 09. Feb 2020, 18:33

tomkai3 (Beitrag #1004) schrieb:
Ich nutze Surround AI nicht nur bei Film sondern auch bei Musik die in Mehrkanal mit DTS oder DD und Atmos vorliegt, nur bei Zwei Kanal Musik habe ich es abgeschaltet, da passt es nicht wirklich... ;)


Hatte letztens mal nicht per Szene auf meinen Amazon Music Modus ohne AI umgeschaltet und so nebenbei Musik (mit AI) gehört. Im ersten Moment war die Sache für mich rund, weil der Surround-Effekt gepasst hat. Aber beim 3. oder 4. Titel waren dann ein paar unschöne (Hall-)Effekte dabei und ich musste es austellen. Da merkt man eben, dass das AI auf Film und Mehrkanal getrimmt wurde. Aber man hat für eine Partybeschallung nebei DSU und All-Channel-Stereo eben eine Option mehr für Raumklang zur Verfügung, auch wenn das natürlich kein HiFi mehr ist.

Mehrkanalmusik kann tatsächlich gut klingen mit AI, aber man hört, wenn man will, auch dort den einen oder anderen Fehler raus.


[Beitrag von multit am 09. Feb 2020, 18:34 bearbeitet]
Suche:
Gehe zu Seite: |vorherige| Erste . 10 . 16 17 18 19 20 21 22 23 24 25 . 30 . Letzte |nächste|
Das könnte Dich auch interessieren:
Surround AI - leider nicht nur Top
Javacom3003 am 30.12.2020  –  Letzte Antwort am 30.12.2020  –  3 Beiträge
Yamaha RX-V767 - Meinungen
gelegenheitsm. am 18.01.2011  –  Letzte Antwort am 21.05.2011  –  55 Beiträge
Yamaha A6A Surround AI vs Denon 4700H
Tim110393 am 22.05.2022  –  Letzte Antwort am 08.06.2022  –  9 Beiträge
Was taugt Sorround AI
marco1707 am 23.09.2018  –  Letzte Antwort am 23.09.2018  –  3 Beiträge
Frage zu AI bei RX-A1080
berniebaerchen am 30.09.2018  –  Letzte Antwort am 01.10.2018  –  9 Beiträge
Erfahrungen yamaha as710d
user19855 am 02.05.2016  –  Letzte Antwort am 09.05.2016  –  7 Beiträge
Yamaha MX-A5000 & CX-A5000
Devil-HK am 07.08.2013  –  Letzte Antwort am 07.08.2013  –  4 Beiträge
Erfahrungen Yamaha App
marpiet am 25.01.2012  –  Letzte Antwort am 14.07.2014  –  39 Beiträge
Yamaha YBA-11 - Erfahrungen
pixelmann am 10.11.2013  –  Letzte Antwort am 23.11.2014  –  7 Beiträge
Yamaha RX-V1700 Erfahrungen ?
Niko-RT am 10.11.2006  –  Letzte Antwort am 12.03.2010  –  90 Beiträge

Anzeige

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.731 ( Heute: 2 )
  • Neuestes MitgliedChriscOg
  • Gesamtzahl an Themen1.551.071
  • Gesamtzahl an Beiträgen21.537.349