Ja - mir fällt dazu Gödel's Unvollständigkeitssatz ein: in jeder Theorie gibt es mindestens einen Satz, der falsch ist (z.B. der Satz "alle Kreter lügen" ist logisch zwingend eine Lüge.) Es kann gut sein, dass eine Aussage über Emotionen nur eine falsche Aussage sein kann. Science wie Hirnforschung also nützlich ist, aber ein offenes Ende hat.
Dazu würde auch die Frage, die ein Mensch sich stellen kann, passen: wie übermittle ich einer KI Information? Wenn sie eine Maschine und nur eine Maschine ist, ist es unmöglich, sie über Emotionen zu informieren. ggfs sogar grundsätzlich, und wir können uns mit KI nicht unterhalten, egal was in den Theorien nicht falsifiziert ist, also möglich ist, und egal, wieviel wir mit der scientific method desweiteren zutage fördern werden.
ok, dann beende ich meine Diskussion hier. Einen Gedanken zum möglichen KI-GAU füge ich aber hinzu: KI muss nicht intelligent, lebendig, aware oder was auch immer sein, um unter dem Strich herauszubekommen: merze die Menschen aus. Und meine Idee ist, dass die Feedback-Schleife, die uns fühlen lässt, gerade der cause ist, der zu diesem effect führt.
Aber es ist mir klar, dass das Laberei ist, wenn ich solche Sätze hinschreibe!
Zu Deinen Links: Ein selbstfahrender Roboter ist schon ziemlich fortgeschritten; er weicht Hindernissen doch schon recht zuverlässig aus. Und ein Schachcomputer ist definitiv nicht intelligent; aber auch nicht wunderbar - ich spiele ein bisschen Schach; wenn die Maschine "Matt in 70 Zügen" ansagt, das lässt sich nachvollziehen.
mfg
Lesezeichen