-
-
Erfahrener Benutzer
Fleißiges Mitglied
@HannoHupmann
Das ist das, was ich mit Diskussionsunfähig meinte! Du bringst nichts in die Diskussion ein, führst dich auf wie jemand der die Weisheit inne hat und zugleich verweigerst du jeglichen Gedankengang, der nicht deiner ist!
Obgleich du dich persönlich angegriffen fühlst - entschuldige ich mich hiermit! Es geht mir nicht darum, dich zu diskredditieren, sondern darauf hinzuweisen, dass deine Statements (meiner Meinung nach) mehr utopischer Natur sind und dass diese einer Diskussion bedürfen!
Ich versuche auch sachlicher zu argumentieren!
Dein angeblicher Rückzug ist unsinnig - im Gegenteil - viel lieber wüsste ich, warum du derart "positiv" in die Zukunft schaust - entgegen aller aktuellen Entwicklungen - insbesondere der im Einsatz und in Entwicklung befindlicher Roboter/Maschinen!?
Und da es vorhin auch mal anklang: Der Film iRobot befasste sich mit dem Thema der 3 Gesetze: Welche aber auf absehbare Zeit (wegen technologischen Defiziten) nicht zum Einsatz kommen werden. Viel mehr bauen wir Maschinen als Werkzeuge - doch wo setzen wir Grenzen und wie helfen wir, die Grenzen einzuhalten?
Das Problem, das ich sehe: Wie kann man eine generelle Moral/Ethik auf eine "Maschine" übertragen, wenn wir selbst uneins sind, was moralisch richtig und was falsch ist?
Beispiel: Darf ein Roboter einen Menschen töten? Was, wenn der Mensch ein Massenmörder ist? Was, wenn dieser Mensch kritisch gegenüber einem Politiker oder einen Staat agiert - der sie aus dem Gleichgewicht bringen würde?
Eine Maschine führt Befehle aus - doch wer hinterfragt diese? Ich habe Probleme damit, dass Menschen die dem Militär angehören, die "Programmierung" übernehmen - denn das was als "Kollateralschaden" und als akzeptaple Verluste in der klassischen Militärdoktrin klassifiziert wird - entspricht so gar nicht meinen Vorstellungen, von "Akzeptabel!
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen