-
-
Erfahrener Benutzer
Robotik Einstein
Meine Ansicht zu Moral etc:
Für jede Problemlösung muss ein Anreiz da sein. Irgendwo muss ja ein "Auftrag" herkommen. Wenn man in das eigene "Denken" einer KI diese Antriebskriterien einbaut, die ein Mensch natürlicherweise auch besitzt, kann sie sich auch ähnlich entwickeln. Da nicht nur Aufträge von außen eine Rolle spielen, sondern auch die nach innen gerichteten (damit das "Denken" überhaupt funktioniert). Menschen finden sich im Laufe ihres Lebens auch erst selber. Die Persönlichkeitsentwicklung ist ein Prozess. Dann können Sachen ins Spiel kommen wie: ist das richtig, was ich tue? Wie reagiert meine Umwelt darauf? Welche Fähigkeiten besitze ich? Was kann ich gut, was schlecht - kann ich mich dort verbessern? Viele, viele Sachen, die wir lernen, von den Eltern und anderen Mitmenschen abgucken, kann eine richtige KI prinzipiell auch erfassen und auf diese Weise dazulernen. Sie wird sich dann im Laufe der Zeit verändern, geprägt durch die Umwelt. Die KI kann damit auch moralisch handeln oder unmoralisch. Wenn sie Einzelheiten von Moral und dem Gegenteil kennt, kann die KI auch zwischen moralisch und unmoralisch unterscheiden. Vom Prinzip sehe ich gar keine Grenze, was eine KI nicht könnte oder werden könnte.
MfG
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen