-
-
Erfahrener Benutzer
Fleißiges Mitglied
Ich habe nicht vor die Feuerwehr abzuschaffen, aufgrund irgendwelcher moralischer Zweifel. Ich wollte lediglich darauf hinweisen, das wir eine eindeutige Priorisierung brauchen und zwar nach rationalen und nicht nach moralischen Maßstäben. Sollte das falsch rübergekommen sein, entschuldige ich mich hierfür!
Ich kenn das "Argument", Frauen und Kinder zuerst ...
Aber was will man der Familie von dem Mann sagen? Tut mir leid, ihr Sohn/Vater/Ehemann hatte zwar die besseren Überlebenschancen, aber da war auch ein Kind. Es hat zwar, wie prognostiziert nicht überlebt - aber irngendein Programmierer hat einmal beschlossen: Frauen und Kinder zuerst!
Wo ziehst man die Grenze? Was, wenn dort 2 Kinder waren? Wen rettet man zuerst? Das jüngere oder das ältere Kind? Was, wenn der Alterunterschied nur 1 Jahr beträgt? Rettet man zuerst den Jungen oder das Mädchen? Was, wenn im Auto Zwillinge drinnen eingeschlossen wären? Wo trifft man daa die Auswahl?
Du wirst es in solch einem Dilemma niemals allen Menschen recht machen können - hier geht es um die "theoretische" und "praxistaugliche" Lösung!
Unser Grundgesetz sagt, dass alle Menschen gleich sind. Und die "Überlebenswahrscheinlichkeit", basierend auf einer visuellen Diagnostik - ist da die rational am "ehesten" verkraftbare und für die Hersteller wohl am "Besten" geeignete Lösung, um nicht Gefahr zu laufen, mit Prozessen überflutet zu werden!
Man muss Entscheidungen rational begründen können und durch die Priorisierung und die Nutzung der Überlebenswahrscheinlichkeiten, reduziert man die ansonst später aufkeimende Diskussionen auf ein Minimum. Nehm mal Microsoft - da wird seit Jahrzehnten für die Offenlegung des Quellcodes geklagt. Sollte ein Unternehmen nun seinen Qellcode (das spätere "KnowHow" für die Konkurrenz offenlegen, damit ein "Angehöriger" eines nicht zuerst geretteten Menschen, nachvollziehen kann, wie der Roboter zu seiner Entscheidungsfindung kam? Kann ein Mensch die vielen Tausend Prägungen des Programmierers verstehen? Was, wenn der Programmierer ein Deutscher Rassist war, der beschlossen hat, egal wo auf der Welt sein Roboter eingesetzt wird - er rettet in Notfallsituationen zuerst die hellhautfarbigen Menschen, bevor er sich der dunkelhäutigen und asiatischen menschen widmet?
Was willst du den Angehörigen sagen? Tut mir leid, aber der Programmierer war ein Nazi und ihr Sohn war schwarz!? Oder ihre Tochter hatte ein Feuermal im Gesicht - der Roboter hat dies bei seiner Bewertung berücksichtigt und ein eitler Programmierer hat mal beschlossen, dass ein Feuermal eine Entstellung ist, die stark abgewertet wird! Was, wenn dieser optische "Makel" ausschlaggebend für die Auswahl war?
Am Ende geht es um nackte Zahlen und um die "Risikominimierung" für den Hersteller selbst - und da ist eine einfache Logik viel effektiver, wenn gleich diese auch entgegen evolutionärer "Instinkte" agieret!
Berechtigungen
- Neue Themen erstellen: Nein
- Themen beantworten: Nein
- Anhänge hochladen: Nein
- Beiträge bearbeiten: Nein
-
Foren-Regeln
Lesezeichen