Zitat Zitat von ARetobor Beitrag anzeigen
Hallo,
leider ist keiner auf mein Stichwort Moral eingegangen.
Ich finde, KI und Moral gehören zusammen.
Was ist, wenn eine hochentwickelte KI (zB selbstfahrendes Auto) nicht moralisch Handelt ?
Gruß

Moral ist eine Kategorie ausschließlich der menschlichen Natur und Existenz, und sie ist auch noch Zeitgeist-abhängig.
Ethik wäre immerhin schon etwas übergeordneter, aber ebenfalls rein menschlichen Natur, und immer noch kulturell bzw. zivilisatorisch bedingt (christliche, hinduistische, moslimische, mittelalterliche, neuzeitliche, griechisch-römische, westliche, östliche, ...) .

Aber wann ist welches Handeln "ethisch" oder meinetwegen auch "moralisch"?
IMO kann es so etwas für Maschinen a priori nicht geben, denn sie wissen ja nicht um menschliche kulturelle oder existenzielle Kategorien oder Werte.
Asimov hat daher seine "3 grundlegenden Robotergesetze" formuliert, die man fest einprogrammieren muss/müsste (s.u.a. Roman "I, Robot" samt seiner beschriebenen Problematik), doch selbst davon nehmen bereits heute viele Firmen Abstand.

Es kann ja auch niemand international (auch nicht die UNO) Nationalstaaten vorschreiben, was in deren Gesetzen zu Robotern oder KI stehen muss und wer was zu befolgen hat: Wie wenig UN Konventionen international beachtet werden und wie wenig selbst die durchgesetzt werden können, die schon ratifiziert wurden, sieht man ja tagtäglich in Politik-Meldungen.

So schön also Moral oder Ethik in KI und Robotik wäre: es wird sich nicht durchsetzen lasen, höchstens vereinzelt national und dann auch nur sehr vage.
Maschinen mit KI an sich aber werden "von sich aus" keine Moral oder Ethik haben, denn hier zählen nur Reiz, Reaktion, Erfahrung und Handlungserfolg. Siehe z.B. den großartigen Film "Ex Machina".