Gehe zu Seite: Erste Letzte |nächste|

Künstliche intelligenz für HiFi ?

+A -A
Autor
Beitrag
soundrealist
Gesperrt
#1 erstellt: 06. Jan 2017, 15:31
Das Thema "künstliche intelligenz" ist ja schon lange in aller Munde. Spielberg hätte sich bei der Produktion seinen gleichnamigen Films wohl kaum erträumen lassen, daß sich so gut wie alles gezeigte so schnell zur realität entwickelt. Das selbstlenkende Auto ist längst Realität, und die Produktionsstraße der "lernenden Lustpuppen" gleicht den damals noch fiktiven Szenen aufs genauste.

Da liegt es nahe, daß sich diesbezüglich doch eigentlich auch eine Menge auf dem Hifi-Sektor tun müsste. Ich denke da an eine komplette Ablösung der uns bisher bekannten "Kanalsysteme" (Stereo, 5.1, Atmos etc. etc...) sowie an alles rund um das Thema Raumakkustik. Denn im Prinzip sprechen wir ja stets über Schallwellen und Frequenzen. Ein selbstlernendes System, wie auch immer geartet, müsste doch eigentlich wesentlich genauer auf die lokalen gegebenheiten eingehen können, als starre Parameter. Und gemessen an den Dingen, die uns in den nächsten 50 Jahren erwarten ( = Evolutionsaufkommen vergleichbar der letzten 500 Jahre), müsste so etwas doch eigentlich Peanuts sein, allein im Vergleich zu den Entwicklungen in der Medizin diesbezüglich.

Gibt es diesbezüglich evtl. sogar schon Forschungen bezgl. HiFI ? Wie seht Ihr das Thema ? Wohin werden wir uns entwickeln ?

Bin gespannt auf Eure Meinungen, Ansichten und Statements
silberfux
Inventar
#2 erstellt: 07. Jan 2017, 23:25
Ach ja,

im Prinzip hast Du Recht. Da müsste was kommen und da kommt wahrscheinlich auch noch einiges.
Vor allem für den Mainstream, der dadurch gleichzeitig weiter gestärkt wird, weil es ja so schön bequem ist. Das Vertrauen auf automatische Verfahren ist dort ohnehin bereits weit fortgeschritten. Die Ergebnisse lassen jedoch nicht selten zu wünschen übrig und beziehen sich m.E. mehr auf den Heimkino-Sektor, weniger auf Hifi.

Die HiFi-Individualisten bekommen hoffentlich ein paar bedienerfreundlichere und markenübergreifende Tools als heute an die Hand, die es hoffentlich erlauben, individuelle Lösungen weiter zu verbessern. Z.B. durch Einmessung des Raumes und konkrete Vorschläge zur Optimierung. Alles Andere, d.h. was mich bevormundet, würde jedenfalls meinen Spaß am Hobby reduzieren.

BG Konrad
bugatti66
Stammgast
#3 erstellt: 07. Jan 2017, 23:39
Hab e'n Fernseher mit Sprachsteuerung, allerdings noch nicht ausprobiert, da man eine Fernbedienung mit Mikrophon dafür braucht.
Bei HiFi kann ich mir KI eigentlich nicht vorstellen.

Der TV schlägt mir auch ähnliche Youtubes vor, und merkt sich was ich alles geguckt habe, auch wenn ich kein Konto angemeldet habe, kann man aber abschalten.
Bei Spotify fand ich die Vorschläge nicht sooo gut. Noch Entwicklungsmöglichkeiten für KI vorhanden.
Und das Wichtigste ist ja, dass ich Werbung für die Sachen bekomme, die mich wirklich interessieren, scheint aber auch noch nicht so richtig zu funktionieren.
Dadof3
Moderator
#4 erstellt: 09. Jan 2017, 11:46
Interessantes Thema!


soundrealist (Beitrag #1) schrieb:
Spielberg hätte sich bei der Produktion seinen gleichnamigen Films wohl kaum erträumen lassen, daß sich so gut wie alles gezeigte so schnell zur realität entwickelt.

Na ja, bislang ist das Thema KI nicht durch eine besonders rasante Entwicklung geprägt. Seit 70 Jahren wird daran geforscht, und das bisher erreichte ist überwiegend noch weit von dem entfernt, was man gemeinhin unter Intelligenz versteht. Seit etwa 15 bis 20 Jahren gibt es immerhin praktisch anwendbare Sprachsteuerung. Selbstfahrende Autos sind vermutlich "the next big thing" in der KI, aber der große Durchbruch in der KI ist das auch nicht. IBM Watson ist da schon eher auf dem Weg, so etwas wie KI zu bewerkstelligen.


Ich denke da an eine komplette Ablösung der uns bisher bekannten "Kanalsysteme" (Stereo, 5.1, Atmos etc. etc...)

Was stellst du dir da denn vor?

sowie an alles rund um das Thema Raumakkustik. Denn im Prinzip sprechen wir ja stets über Schallwellen und Frequenzen. Ein selbstlernendes System, wie auch immer geartet, müsste doch eigentlich wesentlich genauer auf die lokalen gegebenheiten eingehen können, als starre Parameter.

Nein, warum das? Es gibt Dinge, für die sind simple Mathematik das beste. Um die Länge eines Dreiecks zu berechnen oder die Entfernung aus der Schallverzögerung zu ermitteln, ist KI eher hinderlich. Da sehe ich eigentlich wenig Potenzial für KI.

Wo die KI vermutlich wichtiger wird, ist bei der Musikauswahl. Google schlägt mir heute bereits Musik vor, je nachdem, welche Tageszeit wir haben und wo ich mich gerade befinde. Das klappt noch begrenzt gut, ist aber ausbaufähig. Was schon wesentlich besser klappt, sind Musikvorschläge basierend auf meinem persönlichen Geschmack. Wenn nun noch beides verbunden wird, sehe ich das schon als großen Fortschritt.

Oder Upmixer - wenn die in der Lage wären, Instrumente / Stimmen zu erkennen und zu isolieren, könnten die wesentlich besser funktionieren. Und noch besser bei Filmen, indem der Bildinhalt analysiert wird und entschieden wird, ob Geräusche von oben, unten, vorne oder hinten kommen sollen.
.JC.
Inventar
#5 erstellt: 09. Jan 2017, 12:30
Moin,


soundrealist (Beitrag #1) schrieb:
Denn im Prinzip sprechen wir ja stets über Schallwellen und Frequenzen. Ein selbstlernendes System, wie auch immer geartet, ..


künstliche Intelligenz kommt immer von der Software.
Und die kann idF so gut sein wie sie will. Möbel umstellen oder LS positionieren kann sie eben nicht.

Das ist doch der Witz an der Sache. AVR mit Einmessprogramm gibt es ja schon heute.
Mehr geht da (mMn) aus o.g. Grund nicht wesentlich.

Es muss ja auch nicht eine künstliche Intelligenz sein, der ganz normale Verstand, richtig angewendet, reicht völlig aus.
Aber wenn man so manche Fotos sieht, denkt man: da hilft auch KI nicht weiter.
soundrealist
Gesperrt
#6 erstellt: 09. Jan 2017, 14:14
Wenn man die Dynamik der Geschwindigkeit von Entwicklungen betrachtet, ist es in meinen Augen so gut wie sicher, daß KI sich in spätestens 20 Jahren in so gut wie sämtlichen Bereichen des täglichen Lebens fest etabliert hat. (Über die Probleme, die hieraus entstehen können, möchte ich erst gar nicht weiter eingehen, das wird an anderer Stelle ja bereits jetzt schon hefitgst diskutiert)

Betrachten wir uns zunächst einmal die Zeitachse von der Steinzeit bis zur Ära der kanonenbestückten Segelschiffe: Mehrere hundert Jahre. Hingegen vom Irrglauben, der Mensch werde niemals fliegen können, weil er keine Flügel hat bis zum Airbus A380: "dicker Daumen" gerade mal 150 Jahre. Und noch viel schneller vollzog sich die Ablösung des Wählscheibentelefons durch das Smartphone. Da verwundert es nicht, daß wir in den nächsten 50 Jahren eine Entwicklung von 500 Jahren (gemessen an den vorherigen Zeitrastern) durchlaufen werden.

Ich persönlich sehe daher auch im HiFi- Bereich unzählige Ansatzpunkte.

Ein Hörraum besteht aus den unterschiedlichsten Materialien: Angefangen vom Sauerstoff in der Luft über Holz und Metall an Möbeln bis hin zum Glas der Fensterscheiben. Dazu sich bewegende Objekte wie Menschen und Haustiere. All das hat eine Molekularstruktur. Verändern bzw. verschieben wir diese "Parameter" in irgend einer Form, ändern sich auch Reflektionen und Laufzeiten von Schallwellen. Das Thema ist also deutlich komplexer als die "Berechnung eines Dreiecks". Und die Voraussetzungen damit auch alles andere als starr.

Mein Denkansatz: Wenn es gelingt, Audiosignale nicht "gewaltsam über den Flaschenhals einer HiFi-Anlage (wie wir sie bisher kennen) zu pressen, sondern eine direkte Anbindung an die Struktur der physischen Bestandteile der Luft zu erreichen, könnte KI sich verändernde Bedingungen, welche von Wänden, Decken und sich bewegenden Gegenständen ausgehen, zunächst punktgenau auswerten. Anschließend würden Schallwellen (bzw. Interpreten, Instrumente usw) auf künstlichem Wege exact dort positioniert, wo sie hingehören. Die Verhältnisse des Hörraumes würden dann gar keine Rolle mehr spielen. Noch nicht einmal mehr, ob wir drinnen oder draußen hören. Selbst durch Möbel oder Gegenstände könnte man einfach "hindurchhören". Denn bereits unmittelbar vor der eigentlichen Erzeugung des Audiosignales würde jedes einzelne Atom innerhalb des Aufnahme- und Widergaberaumes per molekularstrukturdurchdringender Einmessvorgänge ausgewertet, entsprechend angepasst und während des Abspielvorganges permanent korrigiert. Auf diese Weise könnte man sogar um die "virtuellen Interpreten" herumlaufen (vorausgesetzt, der Hörraum ist nicht kleiner als der Aufnahmeraum).

Der wesentliche Unterschied eines solchen Verfahrens gegenüber derzeit real existierenden Einmessvorrichtungen: Es findet keine simple Anpassung von Frequenzen und Laufzeiten mehr statt. Vielmehr werden die bestehenden Bedingungen des Abhörraumes (auch während des kompletten Abspielvorgangs) komplett "wegdigitalisiert" und eine Art "Fehlerkorrektursystem" rechnet plötzlich auftretende Abweichungen (bewegte Objekte, offene Türen und Fenster usw) weg , so daß wir permanent komplett neutrale Voraussetzungen haben.
Unter diesen Bedingungen schlängeln sich unhörbare "Audiotransportsignale" wie durch ein extrem feinmaschiges, "atomardreidimensionales Spinnennetz", welche an der jeweils vorgesehenen molekularen Stelle winzigste "Frequenzpartikel" abladen. Damit beantwortet sich auch die Frage, warum wir dann im heutigen Verständnis keine "Kanäle" mehr bräuchten: Lautsprecher schieben (vereinfacht gesagt) lediglich Luft in einem gewissen Radius an, meine Idee hingegen schafft künstliche Realitäten, in dem die Aufnahme an/in jedem beliebigen Raum "hineingeklont" wird.

Ohne die Unterstützung von KI ist so etwas aber undenkbar, denn es müssen sämtliche fixen und variablen Parameter des Abhörraumes permanent gegen die des Aufnahmeraumes abgeglichen und angepasst werden. Ganz abgesehen davon, daß die extrem komplexen Vorgänge einer Lokalanalyse jedes einzelnen Atoms (=Messpunkt) eine völlg andere Hausnummer ist. Im Vergleich dazu versucht ( die dann gnadenlos veraltete) Messmikrofontechnik den Bodensee mit einem Kaffeelöffel trocken zu legen

Ein weiterer (revolutionärer) Nebeneffekt dieser Vision: Man benötigt überhaupt keine Lautsprecher mehr, denn ein einziger "Kontaktpunkt zur Anbindung an die Luft" würde genügen

Klar, nach dem heutigen Stand der Technik völlig utopisch. Aber wir wollen in diesem Faden ja auch ein wenig "drauflosspinnen"
Schließlich dachte man ja auch mal, daß Schiffe aus Eisen wegen des hohen Gewichtes zwangsläufig untergehen müssen. Und es ist auch noch gar nicht so lange her, als Wissenschaftler, welche die Erde für eine Kugel gehalten haben, auf dem Scheiterhaufen gelandet sind


[Beitrag von soundrealist am 09. Jan 2017, 15:07 bearbeitet]
Passat
Inventar
#7 erstellt: 09. Jan 2017, 14:30

Dadof3 (Beitrag #4) schrieb:

Wo die KI vermutlich wichtiger wird, ist bei der Musikauswahl. Google schlägt mir heute bereits Musik vor, je nachdem, welche Tageszeit wir haben und wo ich mich gerade befinde. Das klappt noch begrenzt gut, ist aber ausbaufähig. Was schon wesentlich besser klappt, sind Musikvorschläge basierend auf meinem persönlichen Geschmack. Wenn nun noch beides verbunden wird, sehe ich das schon als großen Fortschritt.


Ich nicht.
Evtl. will ich mal neue Sachen entdecken und nicht das, was ich sowieso schon habe oder so ähnlich ist, wie das, was ich schon habe.

KI würde mich dabei behindern.
Deshalb höre ich auch Radio: Entdecken von Musik, die ich noch nicht kenne.
Wenn ich z.B. eine bestimmte Musikrichtung noch nie gehört habe, weiß ich auch nicht, ob mir die gefällt oder nicht.

KI kennt auch meine persönliche Stimmung nicht.
Evtl. ist mir heute abend nicht nach Mainstream, sondern z.B. nach Klassik oder alten Sachen aus den 60ern oder 70ern.

Grüße
Roman
silberfux
Inventar
#8 erstellt: 09. Jan 2017, 16:11
Hallo Roman,

da liegen wir ganz auf einer Linie. Kreativität, Neugier und Individualität gehören für mich zur Substanz des Hobbies. Aus meiner Sicht gilt das sowohl für die Hardware (Anlage) als auch für die Software (Musik). Dabei lässt man sich möglicherweise unterstützen, aber keinesfalls bevormunden. Das wäre als wenn man einem Rennfahrer ein selbstfahrendes Auto unter den Hintern gibt.

BG Konrad
.JC.
Inventar
#9 erstellt: 09. Jan 2017, 16:26
Hi,


soundrealist (Beitrag #6) schrieb:
.. meine Idee hingegen schafft künstliche Realitäten, in dem die Aufnahme an/in jedem beliebigen Raum "hineingeklont" wird.


ein Sound Holodeck ?
hast Du´s auch ne Nummer kleiner ?
Passat
Inventar
#10 erstellt: 09. Jan 2017, 16:50
Was die Raumakustik angeht:
Einfach Kopfhörer verwenden, schon spielt die Raumakustik des Abhörraumes keine Rolle mehr.

Grüße
Roman
Jörg_A.
Inventar
#11 erstellt: 09. Jan 2017, 17:09
Dann grummelt aber der Bass nicht im Bauch sondern im Kopf.....
Passat
Inventar
#12 erstellt: 09. Jan 2017, 17:13
Einfach einen Gürtel mit ein Paar iBeams umschnallen, dann rumpelt es auch im Bauch.

Grüße
Roman
Jörg_A.
Inventar
#13 erstellt: 09. Jan 2017, 17:24
Mir wird übel.......
BassTrombone
Hat sich gelöscht
#14 erstellt: 09. Jan 2017, 17:35

Mein Denkansatz: Wenn es gelingt, Audiosignale nicht "gewaltsam über den Flaschenhals einer HiFi-Anlage (wie wir sie bisher kennen) zu pressen, sondern eine direkte Anbindung an die Struktur der physischen Bestandteile der Luft zu erreichen, könnte KI sich verändernde Bedingungen, welche von Wänden, Decken und sich bewegenden Gegenständen ausgehen, zunächst punktgenau auswerten. Anschließend würden Schallwellen (bzw. Interpreten, Instrumente usw) auf kün.......


Warum so kompliziert ? Vom Internet gleich ohne Umwege an eine ins Gehirn implantierte Schnittstelle, die das Musik-Signal direkt vom Hörrnerv ins Gehirn liefert. Warum noch Luftschall bemühen ?
a73
Stammgast
#15 erstellt: 09. Jan 2017, 17:53

bugatti66 (Beitrag #3) schrieb:
Und das Wichtigste ist ja, dass ich Werbung für die Sachen bekomme, die mich wirklich interessieren, scheint aber auch noch nicht so richtig zu funktionieren.


Hahaha, genau. Bestes Beispiel (aus eigener Erfahrung):
Amaz.....:
Vor vielen Jahren einmal ein Janosch Kinderbuch bestellt; seit dem nur mehr CDs Sparte Rock/Heavy Metal. Was passiert: Jahrelang Werbung für Janosch Bücher
Aber wenn man eine CD vor Erscheinungsdatum auf den Wunschzettel listet (die Wahrscheinlichkeit, dass man diese auch kaufen würde, ist wohl relativ hoch) - keine Info, wenn der Veröffentlichungstermin da ist

Diese Erfahrung nimmt mir immer wieder die Angst, dass die Maschinen einmal die Macht übernehmen....

Zum Thema KI und HiFi: Ich könnte einen Roboter brauchen, der die Platten auflegt und umdreht

LG
kinodehemm
Hat sich gelöscht
#16 erstellt: 09. Jan 2017, 17:55
Moin

ich denke, das das substituieren von KI zum Ausgleich des Mangels an natürlicher Intelligenz im Hifi kein guter Gedanke ist..

'Es gibt Hunde, die sind schlauer als ihr Herrchen'
'Ja, genau so einen hab ich..'
soundrealist
Gesperrt
#17 erstellt: 09. Jan 2017, 18:15

BassTrombone (Beitrag #14) schrieb:

Mein Denkansatz: Wenn es gelingt, Audiosignale nicht "gewaltsam über den Flaschenhals einer HiFi-Anlage (wie wir sie bisher kennen) zu pressen, sondern eine direkte Anbindung an die Struktur der physischen Bestandteile der Luft zu erreichen, könnte KI sich verändernde Bedingungen, welche von Wänden, Decken und sich bewegenden Gegenständen ausgehen, zunächst punktgenau auswerten. Anschließend würden Schallwellen (bzw. Interpreten, Instrumente usw) auf kün.......


Warum so kompliziert ? Vom Internet gleich ohne Umwege an eine ins Gehirn implantierte Schnittstelle, die das Musik-Signal direkt vom Hörrnerv ins Gehirn liefert. Warum noch Luftschall bemühen ?


.... würdest Du einen Netzwerkstecker am Kopf haben wollen ??


[Beitrag von soundrealist am 09. Jan 2017, 18:21 bearbeitet]
soundrealist
Gesperrt
#18 erstellt: 09. Jan 2017, 18:18

.JC. (Beitrag #9) schrieb:
Hi,


soundrealist (Beitrag #6) schrieb:
.. meine Idee hingegen schafft künstliche Realitäten, in dem die Aufnahme an/in jedem beliebigen Raum "hineingeklont" wird.


ein Sound Holodeck ?
hast Du´s auch ne Nummer kleiner ?
:D


Leider nein Denn im Prinzip ist meine Idee so etwas ähnliches wie ein standortunabhängiges Holodeck
Passat
Inventar
#19 erstellt: 09. Jan 2017, 18:23

soundrealist (Beitrag #17) schrieb:
.... würdest Du einen Netzwerkstecker am Kopf haben wollen ?? :D


WLAN-Antennen wie ein Andorianer?




Grüße
Roman
soundrealist
Gesperrt
#20 erstellt: 09. Jan 2017, 18:33

Passat (Beitrag #19) schrieb:

soundrealist (Beitrag #17) schrieb:
.... würdest Du einen Netzwerkstecker am Kopf haben wollen ?? :D


WLAN-Antennen wie ein Andorianer?




Grüße
Roman


Sogar mit zwei Antennen, eine für jedes Ohr

Aber mal ganz im Ernst: Ganz abwägig ist die Sache noch gar nicht mal. Vielleicht wird ja ein Verfahren erfunden, bei dem man sich einen hauchdünnen Kopfreif anlegt, der tatsächlich irgendwie drahtlos das Gehirn entsprechend stimuliert. So etwas könnte sich evtl. als Ableger aus der zukünftigen Medizintechnik entwickeln.
Passat
Inventar
#21 erstellt: 09. Jan 2017, 18:59
Gibts doch so ähnlich schon für gehörlose Menschen, deren Hörnerv intakt ist.
Nennt sich Cochlea-Implantat: https://de.wikipedia.org/wiki/Cochlea-Implantat

Grüße
Roman
soundrealist
Gesperrt
#22 erstellt: 09. Jan 2017, 19:12
Aber da müsste man einen opertiven Eingriff vornehmen. Und das Ding ermöglicht ja auch "nur" das Hören. Für HiFi wäre so etwas interessant, wenn drahtlos ohne "Eingriff" eine "perfekte Illusion" im Zuge eines Abspielvorgangs erzeugt werden könnte.


[Beitrag von soundrealist am 09. Jan 2017, 19:13 bearbeitet]
Passat
Inventar
#23 erstellt: 09. Jan 2017, 19:59
Wie soll das drahtlos ohne operativen Eingriff funktionieren?
Den menschlichen Körper fehlen doch die dafür nötigen Empfänger.
Und die muß man eben per operativem Eingriff nachrüsten, anders geht es nicht.

Grüße
Roman
BassTrombone
Hat sich gelöscht
#24 erstellt: 09. Jan 2017, 20:03
in ein paar Jahrzehnten oder Jahrhunderten wird man wahrscheinlich schon sofort ab Geburt gechipt und sämtliche Nerven und so, auch Hörnerv, angeschlossen, natürlich ohne Stecker, läuft dann natürlich drahtlos, WLAN und so....

In der Neuverfilmung von Total Recall hatten sie ja schon ein Handyimplantat in der Handfläche....

Hifi ist dann nur noch externens Wiedergabegerät und Hochwertigkeit des Schädelimplantates, welches man Upgraden kann oder nicht...Upgrade dann immer noch nach Hifi Norm DIN45500


[Beitrag von BassTrombone am 09. Jan 2017, 20:05 bearbeitet]
soundrealist
Gesperrt
#25 erstellt: 09. Jan 2017, 20:14

Passat (Beitrag #23) schrieb:
Wie soll das drahtlos ohne operativen Eingriff funktionieren?
Den menschlichen Körper fehlen doch die dafür nötigen Empfänger.
Und die muß man eben per operativem Eingriff nachrüsten, anders geht es nicht.

Grüße
Roman


---- das kann ich Dir leider auch nicht sagen, ist ja auch alles erst mal reine "Phantasie".und schließt damit natürlich auch Technologien ein, die wir heute noch gar nicht kennen
Slatibartfass
Inventar
#26 erstellt: 09. Jan 2017, 20:15
Anscheinend stellen sich einige Leute unter dem Begriff "Künstliche Intelligenz" tatsächlich so etwas wie Intelligenz vor, wie damals in den 1970ern, als in Filmen alles nur in den Computer eingegeben werden musste um auf jede Frage eine intelligente Antwort zu bekommen. Die ganzen hier diskutierten Techniken haben aber nichts mit dem zutun, was heute unter dem Begriff KI verstanden wird.

Ich hoffe nur, dass die Musikindustrie nicht auf die Idee kommt, Zukünftig Musik gleich durch KI komponieren und spielen zu lassen um sich die Gage an die Künstler zu sparen.

Slati
soundrealist
Gesperrt
#27 erstellt: 09. Jan 2017, 20:31

BassTrombone (Beitrag #24) schrieb:
in ein paar Jahrzehnten oder Jahrhunderten wird man wahrscheinlich schon sofort ab Geburt gechipt und sämtliche Nerven und so, auch Hörnerv, angeschlossen, natürlich ohne Stecker, läuft dann natürlich drahtlos, WLAN und so....

In der Neuverfilmung von Total Recall hatten sie ja schon ein Handyimplantat in der Handfläche....

Hifi ist dann nur noch externens Wiedergabegerät und Hochwertigkeit des Schädelimplantates, welches man Upgraden kann oder nicht...Upgrade dann immer noch nach Hifi Norm DIN45500 ;)


Mit der Entwicklung künstlicher Körperteile machen wir ja tatsächlich schon den ersten kleinen Schritt in diese Richtung.

Forschungen, wonach sämtliche "Hirninhalte" zwischengespeichert und in einen anderen Körper übertragen werden können, gibt es ja schon. Aus der Idee heraus, auf diese Weise länger leben (und im Bedarfsfall für die Suche nach einem neuen Heimatplaneten zeitindensiv die Erde verlassen) zu können. Ich persönlich halte eine Fussion von Mensch und Maschine aber für eine Horrorvorstellung.


[Beitrag von soundrealist am 09. Jan 2017, 20:33 bearbeitet]
Ohrenschoner
Inventar
#28 erstellt: 09. Jan 2017, 20:39
@ TE :
gegen die "Lokalanalyse einzelner Atome" wird ein gewisser Herr Heisenberg so seine Einwände haben...
soundrealist
Gesperrt
#29 erstellt: 09. Jan 2017, 20:45
In diesem Video gibt ein real existierender KI-Roboter eine Pressekonferenz
https://www.youtube.com/watch?v=iW3_Ft1t0mY
soundrealist
Gesperrt
#30 erstellt: 09. Jan 2017, 20:57

Ohrenschoner (Beitrag #28) schrieb:
@ TE :
gegen die "Lokalanalyse einzelner Atome" wird ein gewisser Herr Heisenberg so seine Einwände haben...


.... gegen die "Analyse" sicherlich nicht
kinodehemm
Hat sich gelöscht
#31 erstellt: 09. Jan 2017, 21:21
Moin


Forschungen, wonach sämtliche "Hirninhalte" zwischengespeichert und in einen anderen Körper übertragen werden können, gibt es ja schon.

aber auch nur die Forschung- ansonsten 'gibt es nichts zu sehen, bitte weiterträumen..'
.JC.
Inventar
#32 erstellt: 09. Jan 2017, 21:48

soundrealist (Beitrag #27) schrieb:
Ich persönlich halte eine Fusion von Mensch und Maschine aber für eine Horrorvorstellung.


eine Symbiose haben sie ja schon.

Schlimm genug (wenn man es sehen kann) was Smartphones unter den Jugendlichen anrichten.
Dadof3
Moderator
#33 erstellt: 10. Jan 2017, 00:42
@ Soundrealist, was du beschreibst, ist ja ein nettes Szenario, aber erstens das exakte Gegenteil zu deinem Benutzernamen und zweitens mehr eine physikalische Herausforderung, keine für die KI.
Auch wenn es die notwendigen physikalische Mechanismen endlich gibt, braucht man zu deren Beherrschung wahrscheinlich auch keine KI, sondern einfache Regelkreise, in Massen angewandt.


Passat (Beitrag #7) schrieb:
Ich nicht.
Evtl. will ich mal neue Sachen entdecken und nicht das, was ich sowieso schon habe oder so ähnlich ist, wie das, was ich schon habe.

KI würde mich dabei behindern.
Deshalb höre ich auch Radio: Entdecken von Musik, die ich noch nicht kenne.

Du unterschätzt, was KI leisten kann, jedenfalls theoretisch. Es geht ja nicht um die Musik, die du sowieso schon hast, sondern vor allem um Neuvorschläge. Die KI erkennt an Eigenschaften der Musik, die du nicht einmal selbst verstehst, was dir wahrscheinlich gefällt und was wahrscheinlich nicht, und macht dir basierend darauf Vorschläge. Basierend auf Rhythmik, Melodie, Innovation, Instrumenten usw.

Die KI erstellt dir auch Radiosender, aber solche, die näher an deinem Geschmack sind, quer über die Genres hinweg.
Ohne Vorauswahl geht es nicht. Du quälst dich doch auch nicht stundenlang mit Bayern 1 oder WDR 4, weil du hoffst, endlich mal einen Schlager zu hören, der dir gefällt.


Wenn ich z.B. eine bestimmte Musikrichtung noch nie gehört habe, weiß ich auch nicht, ob mir die gefällt oder nicht.

Gibt es das: eine Musikrichtung, die du noch nie gehört hast? Ich habe schon seit Jahren keine mehr entdeckt, und ich bin immer auf der Suche. Inzwischen war doch alles schon mal da.

Und, wie gesagt, nur die Genres zu spielen, die du sonst immer hörst, ist noch keine KI, das ist simple Statistik. Es geht um mehr.


KI kennt auch meine persönliche Stimmung nicht.

Noch nicht. Aber irgendwann wird dein Puls, Blutdruck, Aktivität, Gesichtsausdruck usw. analysiert und dann kennt das Gerät deine Stimmung bald besser als du selbst. Mit der Stimmenanalyse zum Beispiel geht das heute schon: http://www.golem.de/...mung-1212-96171.html

Zurzeit behilft sich Google aber noch damit, dir verschiedene Radiosender für verschiedene mögliche Stimmungen vorzuschlagen, aus denen du dann selbst auswählen muss. Du sagst einfach nur, ob du zum Beispiel entspannen möchtest, abrocken oder einfach nur unterhalten werden.


[Beitrag von Dadof3 am 10. Jan 2017, 00:43 bearbeitet]
soundrealist
Gesperrt
#34 erstellt: 10. Jan 2017, 10:45

Slatibartfass (Beitrag #26) schrieb:

Ich hoffe nur, dass die Musikindustrie nicht auf die Idee kommt, Zukünftig Musik gleich durch KI komponieren und spielen zu lassen um sich die Gage an die Künstler zu sparen.

Slati


Leider passiert aber auch im kreativen Bereich genau das. Es gibt beispielsweise ein KI-Programm, das Rembrandt-Bilder analysiert hat, sämtliche künstlerischen Eigenheiten/Besonderheitet bis ins kleinste Detail kennt und nun in der Lage ist, selbst Bilder so perfekt zu erstellen, daß kein Gutachter der Welt Zweifel hätte (vorausgesetzt, es steht Originalfarbe und Leinwand aus dieser Epoche zur Verfügung). Selbst die Patina wird 1:1 entsprechend den realen Alterungsprozessen.gefaket. Das einzige, was das Programm nicht kann: Sich selbst Motive ausdenken. Man muß vorher bestimmen, was gemalt werden soll.


[Beitrag von soundrealist am 10. Jan 2017, 10:48 bearbeitet]
soundrealist
Gesperrt
#35 erstellt: 10. Jan 2017, 10:57

Dadof3 (Beitrag #33) schrieb:
@ Soundrealist, was du beschreibst, ist ja ein nettes Szenario, aber erstens das exakte Gegenteil zu deinem Benutzernamen und zweitens mehr eine physikalische Herausforderung, keine für die KI.
Auch wenn es die notwendigen physikalische Mechanismen endlich gibt, braucht man zu deren Beherrschung wahrscheinlich auch keine KI, sondern einfache Regelkreise, in Massen angewandt.
.


Bei rein komplexen, stereotypen Vorgängen würde ich Dir recht geben. Sobald aber Entscheidungen getroffen werden müssen, beispielsweise bei der Schaffung von Gegebenheiten eines Aufnahmeraumes in einem Hörraum und gleichzeitig permanent entschieden/bewertet werden muss, was da hingehört und was nicht (bzw. was gerade situationsbezogen verändert werden muß), erfordert das für mein Dafürhalten durchaus eine Art "Intelligenz". Wobei ich aber einräumen möchte, daß die Grenzen zwischen starren Prozessabläufen und eigenständigem Denken durchaus oft sehr fließend sind.
Hüb'
Moderator
#36 erstellt: 10. Jan 2017, 11:04

Forschungen, wonach sämtliche "Hirninhalte" zwischengespeichert und in einen anderen Körper übertragen werden können, gibt es ja schon.

Bei manchen Menschen reichte dazu als Transfermedium sogar eine Datasette aus, ganz unkomprimiert...
Passat
Inventar
#37 erstellt: 10. Jan 2017, 11:47
So, wie die Antwort auf die Frage:
Wie bekommt man das Gehirn mancher Menschen auf Erbsengröße?
Aufblasen!

Grüße
Roman
hifi_angel
Inventar
#38 erstellt: 10. Jan 2017, 14:21
KI-Systeme im HiFi-Bereich würde für viele ein Rückschritt bedeuten, es sei denn das KI-System ist ebenfalls in der Lage sich Dinge einbilden zu können die objektiv gesehen nicht vorhanden sind.

Sollte das KI-System das nicht können, also sich nicht durch das Glaubens-BlaBla anderer (bzw. durch Werbung) beeinflussen lassen, wäre es das Ende des Voodoo-HiFi Zeitalters.

Aber im Grunde gibt es ja auch noch keine KI-Systeme, sondern lediglich sogn. Expertensysteme die in einem bestimmten Fachbereich alle relevanten Regeln und Objekteigenschaften so verknüpfen können, dass je nach gesetzten Zielkriterien eine optimale Entscheidung getroffen werden kann, bzw. bei autonomen Systemen getroffen wird. Man nutzt also das zusammengetragene Wissen, die Fähigkeiten und Erfahrungen "aller Experten" dieser Welt, ohne selber darüber verfügen zu müssen.

Man könnte natürlich auch mal versuchen ein Voodoo-Expertensystem aufzubauen. Es wird jedoch scheitern, da es hier keine eindeutigen Regeln, keine eindeutigen Objekteigenschaften und deren Verknüpfungen gibt, alles ist konfus und jeder ist sein eigener Experte, alles kann sein, nichts muss sein, wer hört hat recht und es gilt das gesprochene (geschriebene) Wort der selbsternannten Experten. Und die alles bestimmende Einbildung kann so ein Expertensystem sowieso nicht abbilden.
Dadof3
Moderator
#39 erstellt: 10. Jan 2017, 17:17

hifi_angel (Beitrag #38) schrieb:
Aber im Grunde gibt es ja auch noch keine KI-Systeme, sondern lediglich sogn. Expertensysteme die in einem bestimmten Fachbereich alle relevanten Regeln und Objekteigenschaften so verknüpfen können, dass je nach gesetzten Zielkriterien eine optimale Entscheidung getroffen werden kann, bzw. bei autonomen Systemen getroffen wird. Man nutzt also das zusammengetragene Wissen, die Fähigkeiten und Erfahrungen "aller Experten" dieser Welt, ohne selber darüber verfügen zu müssen.

Das ist nicht richtig. Moderne Mustererkennung wird häufig über Maschine Learning konstruiert, das heißt, die Computer lernen selbst, wie sie zum Beispiel Wörter in gesprochener Sprache erkennen. Expertenregeln unterstützen hier nur.
soundrealist
Gesperrt
#40 erstellt: 10. Jan 2017, 18:26

Dadof3 (Beitrag #39) schrieb:
Moderne Mustererkennung wird häufig über Maschine Learning konstruiert, das heißt, die Computer lernen selbst, wie sie zum Beispiel Wörter in gesprochener Sprache erkennen. Expertenregeln unterstützen hier nur.


So sieht´s aus. Gerade auch deshalb könnte KI bei Raumakustiksystemen Sinn machen: Wenn beispielsweise erst ein Jahr nach der Installation ein Möbelstück aus einem völlig neuartigen Werkstoff angeschafft wird. dessen Schallreflektionseigeschaften im "System" noch nicht hinterlegt sind.
hifi_angel
Inventar
#41 erstellt: 10. Jan 2017, 19:44

Dadof3 (Beitrag #39) schrieb:

Das ist nicht richtig. Moderne Mustererkennung wird häufig über Maschine Learning konstruiert, das heißt, die Computer lernen selbst, wie sie zum Beispiel Wörter in gesprochener Sprache erkennen. Expertenregeln unterstützen hier nur.

Nee, (für mich) das ist noch keine KI.

Wenn ich z.b. Siri oder Cortana frage: "Brauche ich einen Regenschirm?", läuft nach der Regelbasierten Syntax-Erkennung eine ebenfalls Regelbasierte Erkennung der Semantik ab, da ist nichts selbst lernend.
Die Regeln zur Verarbeitung koknektiver Vorgänge sind alle explizit formuliert.

Bei Siri oder Cortana läuft schematisch folgendes ab. Nach der Erkennung der Syntax wird ein semantischer Kontext hergeleitet (worauf zielt die Frage ab, was wird als Antwort erwartet). -> Ein Regenschirm wird dann benötigt, wenn es regnet. -> Einleitung einer Aktion zur Feststellung ob es an dem Ort regnet wo der Fragesteller gerade ist. -> Ortsbestimmung. -> Wetterberichte analysieren (aktuelle Regenwahrscheinlichkeit). -> Ergebnis wird semantisch aufbereitet (z.B. Antwort "nein") oder direkt mit der Antwort "Die Regenwahrscheinlichkeit beträgt x%" übermittelt.
Wenn man jetzt noch bedenkt, dass zusätzlich noch in verschiedenen Sprachen hin und her übersetzt werden muss und auch noch in einer verständlichen Aussprache die Antwort erfolgt und das die gesamten Abläufe über das "chaotische" Internet in Sekundenbruchteile abgewickelt werden, ist das schon sehr exorbitant.

Es gibt sogar Systeme die über Sensoren meine Gestik, Mimik und Stimmlage meine Gefühlslage erkennen können (da man diese Regeln dafür im System hinterlegt hat) und entsprechend ihre Antworten darauf abstimmen. Aber auch diese Systeme haben sich das nicht selbst lernend selber beigebracht.

kleine Anekdote
Mitte der 80ziger kamen ja die ersten geeigneten Programmiersprachen (LISP, Prolog, smaltak80, etc.) auf, mit denen man die ersten KI-Gehversuche machen konnte. So hatten wir im Rahmen eines DFG geförderten Forschungsprojekts u.a auch ein Hotelreservierungssystem entwickelt, natürlich noch ohne Sprachein-/ausgabe allerdings mit frei formulierbarer Texteingabe.
Über entsprechende Regeln war sogar eine wenn auch sehr eingeschränkte Erkennung der Semantik möglich. Z.B. wenn der fiktive Hotelgast in einem frei formulierten Text eingab, dass er ein hartes Bett wünschte, wurde das vom System auch erkannt und darauf hin das Objekt Bett mit seinen zuvor festgelegten allgemeinen Eigenschaften analysiert, also Bett besteht aus Rahmen,Matratze, ....,etc. Matratze hat die Eigenschaften weich, hart, ...., etc.
Soweit klar, aber wie kann das System ermitteln ob in dem zu buchenden Zimmer jetzt gerade eine harte Matratze vorhanden ist, zumal Matratzen ja mit zunehmender Benutzung ihre Härte verlieren.
Das System kam so nicht weiter. Erst die neu (von außen) eingebrachte Regel, dass neue Matratzen härter sind als alte und die Erweiterung der Zimmer-Inventurliste mit dem Beschaffungszeitpunkt der einzelnen Artikel brachte Abhilfe, wobei man noch zusätzlich im Datenbestand festlegen musste wie stark die "Abnutzung" pro Übernachtung ist und ab wann ist eine Matratze dann nicht mehr hart.ist.

Ein selbst lernendes System hätte diesen Eingriff von außen, also die Festlegung und Einbringung einer neuen Regel wohl nicht benötigt, es hätte selber aufgrund seiner künstlichen Intelligenz eine geeignete Problemlösung gefunden und dazu selber eine Regel programmiert, so wie es die natürliche Intelligenz auch macht. Aber ich denke heute ist noch kein System in der Lage eine freie Assoziation vornehmen zu können.


[Beitrag von hifi_angel am 10. Jan 2017, 20:10 bearbeitet]
hifi_angel
Inventar
#42 erstellt: 10. Jan 2017, 20:02

soundrealist (Beitrag #40) schrieb:


So sieht´s aus. Gerade auch deshalb könnte KI bei Raumakustiksystemen Sinn machen: Wenn beispielsweise erst ein Jahr nach der Installation ein Möbelstück aus einem völlig neuartigen Werkstoff angeschafft wird. dessen Schallreflektionseigeschaften im "System" noch nicht hinterlegt sind.


Das ist aber doch keine KI. Der bisher ermittelte Messwert wird doch nur durch einen neuen ausgetauscht, bzw. bei einem zusätzlichen Objekt um einen weiteren Wert erweitert.
Zudem wäre das auch so nicht sehr "intelligent". "Intelligent" wäre es die Quelle so zu verändern, dass bei der gegebenen "Senke" ein Optimum erreicht wird, also genau dass was Einmesssysteme nach vorgegebenen Zielkriterien autonom machen.


[Beitrag von hifi_angel am 10. Jan 2017, 20:15 bearbeitet]
soundrealist
Gesperrt
#43 erstellt: 10. Jan 2017, 21:32

hifi_angel (Beitrag #42) schrieb:

soundrealist (Beitrag #40) schrieb:


So sieht´s aus. Gerade auch deshalb könnte KI bei Raumakustiksystemen Sinn machen: Wenn beispielsweise erst ein Jahr nach der Installation ein Möbelstück aus einem völlig neuartigen Werkstoff angeschafft wird. dessen Schallreflektionseigeschaften im "System" noch nicht hinterlegt sind.


Das ist aber doch keine KI. Der bisher ermittelte Messwert wird doch nur durch einen neuen ausgetauscht,.


--- dazu muß das System doch aber erst mal wissen, daß es neue Messwerte braucht und aufgrund dessen auch neue Messung selbstständig durchführen (= Initiative ergreifen).


[Beitrag von soundrealist am 10. Jan 2017, 21:34 bearbeitet]
Dadof3
Moderator
#44 erstellt: 11. Jan 2017, 02:07
Hifi_angel, ich sprach davon, Wörter in gesprochener zu erkennen - das ist Voice Recognition und hat mit dem, was du erläuterst, nichts zu tun. Erst wenn die Wörter erkannt wurden (ggf. auch mehrere mögliche), beginnt die semantische Analyse, die du beschreibst.

Die Voice Recognition setzt dabei sehr auf maschinelles Lernen. Wenn du zum Dragon Natural Speaking nutzt, musst du ihm erst mal lange Texte vorlesen. Das System lernt dadurch deine Stimme kennen und verfeinert selbst die Regeln, wie es die Schallwellen aus deiner Stimme optimal in Laute und Wörter übersetzt.

Ob man das schon als KI bezeichnet oder nicht, ist eine Definitionsfrage. Wer an KI den Anspruch stellt, den Turing-Test zu bestehen, wird wohl Zeit seines Lebens keine KI zu Gesicht bekommen.


[Beitrag von Dadof3 am 11. Jan 2017, 02:10 bearbeitet]
hifi_angel
Inventar
#45 erstellt: 11. Jan 2017, 14:23
Nun, das von dir genannte Spracheingabe-System (wie die meisten) arbeiten auf der Basis der Silbenerkennung, d.h. jede gesprochene Silbe hat ihre eigene signifikante Signatur (z.B. als digitalisierter Frequenzverlauf), die im System zunächst einmal in einer standardisierten Form hinterlegt ist. Da aber nicht alle Menschen eine bestimmte Silbe gleich aussprechen und auch je nach Wort auch unterschiedlich betont wird, wird bei den meisten Systemen anfänglich eine Justierung auf die individuelle Aussprache des Benutzers vorgenommen. Dazu muss man einen vorgegebenen Text nachsprechen. Da das System nun weiß an welcher Stelle welche Silbe kommt, kann es die hinterlegten Standardwerte für die Silbenaussprache durch die aktuellen Werte ersetzen.

Diesen Vorgang der Justierung nennst du nun maschinelles Lernen und leitest daraus ab, dass es sich um ein KI-System handeln muss.
Wenn das so ist, dann verfügt meine lernbare Fernbedienung vom Prinzip her auch über eine KI.

Nach der Silbenerkennung werden die Sprechpausen dazu genutzt um zu erkennen welche Silben zu einem Wort zusammengefügt werden müssen. Danach wird dieses generierte Wort mit einer Wort-Datenbank abgeglichen und so die korrekte Syntax ermittelt. Hierbei werden auch alle Falschschreibweisen zu einem Wort berücksichtigt. Beispiel, wenn du "Huhn" sagst ist es in der Silbenerkennung gleich dem Wort "Hun", da das Wort "Hun" aber nicht existiert wird das Wort "Huhn" ermittelt. Das war aber noch ein einfacher Fall, es gibt durchaus noch viel komplexerer Situationen die mit mathematischen Methoden und statistischen Methoden dennoch in erstaunlich kurzer Zeit zu einem "Treffer" führen. Z.B. wenn bei der Spracheingabe von mehrerer Worten für eins dieser Worte nach der Silbenerkennung keinen Treffer in der Wortdatenbank gibt geht das System zunächst davon aus, dass es das Wort durchaus gibt, du jedoch es aus Sicht der Silbenerkennung nur falsch ausgesprochen hast. Also werden in dem von dir genannten System bis zu 5 benachbarte Worte selektiert und dann über eine hinterlegte Statistik das Wort ermittelt, was am häufigsten mit diesen 5 Worten kombiniert ist. Hier wird also auch der Kontext eines Wortes berücksichtigt. Die Methode ist sehr effizient und sehr robust, ermöglicht also eine hohe Fehlertoleranz bei der Spracheingabe. Einzig und alleine die CPU-Leistung und die damit verbundene zumutbare Response Time limitiert den Umfang.

Diese Systeme sind sicherlich von sehr intelligenten Menschen erdacht und entwickelt worden, der Lösungsansatz ist sicherlich als sehr intelligent zu bezeichnen, jedoch (und darauf will ich hinaus) das System selber benötigt keine eigene künstliche Intelligenz um das zu tun wozu es gedacht ist. Es arbeitet immer nur stur die von außen aufgebrachten Regeln (die durchaus komplex sein können) schematisch ab.

Mir scheint, dass Menschen immer dann schon von KI reden, wenn Maschinen (SW/HW) Dinge tun können, die bis dato nur der Mensch konnte, also in diesem Fall gesprochene Sprache erkennen und in Texte umwandeln zu können. Selbst ein selbst fahrendes Auto ist für mich kein KI-System, genauso wenig wie ein Flugzeug im Autopilot Betrieb ein KI-System ist.
Ich bin erst dann bereit von einem KI-System zu reden, wenn (egal wie es aufgebaut ist und arbeitet) zumindest das Ergebnis eines solchen Systems der Kreativität entspricht wie sie bei der natürlichen Intelligenz vorhanden ist.

Wenn das jedoch zu solchen Systemen führt, wie hier anhand einer Bombe mit KI demonstriert, die sogar am Ende noch in der Lage ist sich selber was einbilden zu können, dann will ich keine KI!
Dann wären diese Systeme auch nicht besser als die Menschen, sie würden dann ebenso Kriege führen wie auch alle anderen negativen Ausprägungen der menschlichen Intelligenz entwickeln und am Ende sich ebenso selbst auslöschen können wie der Mensch es derzeit auch kann. Aber Evolution kann man wohl nicht aufhalten.


[Beitrag von hifi_angel am 11. Jan 2017, 14:55 bearbeitet]
soundrealist
Gesperrt
#46 erstellt: 11. Jan 2017, 14:55
Das alles zeigt, wie fließend die Grenzen sind. Ich für meinen Teil würde "intelligenz" als die Fähigkeit bezeichnen, Dinge zu lernen, um daraus eigenes Handeln abzuleiten oder Entscheidungen zu treffen. Bei Technik ist es dann halt immer die Frage, in welchem Umfang das geschieht.

Hinsichtlich Einmess- oder Wiedergabesystemen im HiFi-Bereich sehe ich noch keine Bedrohung. Aber bereits bei selbstlenkenden Autos zeichnen sich in meinen Augen schon jetzt ersten ethischen Probleme ab. Denn auch hier müssten eigentlich (wenn auch relativ simple) KI-Komponenten mit rein. Wie sonst soll ein Auto bei einem unvermeidbaren Unfall im Bruchteil einer Sekunde im "Worst-Case" entscheiden, ob es lieber in eine Menschenmenge rast oder eher die Insassen umkommen lässt :-( Hier hat man als Entwickler nur noch die Wahl zwischen Teufel und Belzebub. Ein fester Algorythmus ohne KI würde nach einem starren, vogegebenen Muster das Todesurteil über eine der beiden Parteien sprechen. KI hingegen verlagert die Entscheidungsfrage "intelligenzbezogen" vom Entwickler zur Technik. Nur: Wollen wir Entscheidungen von solcher Tragweite tatsächlich seelensoser Technik überlassen ?


[Beitrag von soundrealist am 11. Jan 2017, 15:01 bearbeitet]
tomtiger
Administrator
#47 erstellt: 11. Jan 2017, 15:17
Hi,


hifi_angel (Beitrag #45) schrieb:
Diesen Vorgang der Justierung nennst du nun maschinelles Lernen und leitest daraus ab, dass es sich um ein KI-System handeln muss.


Spracherkennung ist bzw. war immer schon Teilbereich der Künstlichen Intelligenz.



Wenn das so ist, dann verfügt meine lernbare Fernbedienung vom Prinzip her auch über eine KI.


Bei der praktischen KI geht es um die Simulation intelligenten Verhaltens, das bei der Spracherkennung vorhanden ist, bei der Fernbedienung nicht. Würde die Fernbedienung selbständig lernen, müsste man sie wohl der KI zurechnen.

LG Tom
kinodehemm
Hat sich gelöscht
#48 erstellt: 11. Jan 2017, 15:28
Moin

die Frage, ob wir KI 'wollen', wird nicht gestellt werden.
Sie wird kommen, und damit auch die absehbare Obsolenz des Menschen, angefangen mit den Schichten der Gesellschaft, die keinerlei ökonomischen Wert für sich reklamieren können.
Denn auch die (Kontrolle der ..) KI wird, wie bisher jedes Produktionsmittel , in den Händen weniger verbleiben.

So, wie einfache Maschinen den einfachen Arbeiter ersetzen, werden autarke,hochkomplexe Systeme mehr und mehr ganze Wirtschaftsbereiche verwalten- keine Utopie, wenn man zB einen Blick auf den Wertpapierhandel und andere Bereiche der Börse lenkt.

Die Legitimation des Einzelnen, zu den Profiteuren dieser Entwicklung zu gehören, wird von Jahr zu Jahr und Generation zu Generation schwieriger, da mit fortschreitender Automatisation in der Wirtschaft auch nach und nach die 'Kontrolleure' obsolet werden.
Und sollten weiter die Gesetzmässigkeiten des Kapitalismus gelten- die ja heuer eine Renaisance erleben- dann wird mit nicht mehr benötigten oder gar pekuniär belastenden Teilen der Wertschöpfungskette so verfahren, wie es nach dem marktliberalen Credo usus ist..


Und diese Lösung hat nichts mit 'gegenleistungsfreier Grundversorgung ' oä zu tun..


[Beitrag von kinodehemm am 11. Jan 2017, 15:58 bearbeitet]
pelowski
Hat sich gelöscht
#49 erstellt: 11. Jan 2017, 15:53
Hallo,

klar kann man wunderbar über die "Schöne Neue Welt" mit KI spekulieren, diskutieren...

Aber eigentlich wären doch viel größere Probleme zuerst zu lösen.
Ja, ich weiß, die bringen viel weniger Profit.

Was macht eigentlich die KI (und nicht nur diese), wenn soetwas sich (ganz sicher irgendwann) wiederholt? https://de.wikipedia.org/wiki/Carrington-Ereignis

Grüße - Manfred
kinodehemm
Hat sich gelöscht
#50 erstellt: 11. Jan 2017, 16:21
Ach Manfred,

wir alten Leut sind doch bloss zukunftspessimistisch


Oder..
.JC.
Inventar
#51 erstellt: 11. Jan 2017, 16:22
Hi,


pelowski (Beitrag #49) schrieb:
.. wenn so etwas sich (ganz sicher irgendwann) wiederholt?


tja, ohne Elektrizität keine Computer, ohne Computer kein Essen.
Dürfte lustig werden ..
Suche:
Gehe zu Seite: Erste Letzte |nächste|
Das könnte Dich auch interessieren:
Künstliche Bühne am Mischpult - wie geht das?
pure_sound am 11.09.2009  –  Letzte Antwort am 14.09.2009  –  10 Beiträge
Antennenkabel für HiFi-Tuner
HighFrank am 23.09.2004  –  Letzte Antwort am 24.09.2004  –  8 Beiträge
Onlinedienst für Hifi-Gerätedaten
Magickey am 31.01.2005  –  Letzte Antwort am 31.01.2005  –  2 Beiträge
Festplatten für HiFi-Anlagen
Talle am 12.09.2005  –  Letzte Antwort am 24.09.2005  –  19 Beiträge
Sicherungen für HIFI-Stromversorgung
rh_aus_muenster am 06.10.2005  –  Letzte Antwort am 07.10.2005  –  7 Beiträge
HiFi für 17.99
am 01.05.2006  –  Letzte Antwort am 06.05.2006  –  14 Beiträge
Kaufberratung für Hifi-Anlage.
JasonJT am 20.10.2006  –  Letzte Antwort am 22.10.2006  –  4 Beiträge
hifi für den durchschnittsmann
heinzi69 am 28.09.2007  –  Letzte Antwort am 30.09.2007  –  26 Beiträge
HIFI für 100.000?
Unwissend² am 08.10.2007  –  Letzte Antwort am 26.10.2007  –  203 Beiträge
CAR-Hifi für Daheim
Slaine am 07.05.2003  –  Letzte Antwort am 01.09.2006  –  46 Beiträge
Foren Archiv
2017

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder925.654 ( Heute: 1 )
  • Neuestes MitgliedKisa012001
  • Gesamtzahl an Themen1.550.843
  • Gesamtzahl an Beiträgen21.532.869

Hersteller in diesem Thread Widget schließen