Die Menschen bestimmen das, so wie sie es ihrer gesamte Existenzdauer bereits tun. Jedes Volk, Gemeinde, Gruppe macht es auf ihre Weise, indem sie Gesetze aufstellen. Darin entscheiden sie, was falsch ist. Der Rest ist ganz einfach: Richtig ist, was nicht falsch ist!Wer bestimmt, was richtig ist und was falsch? Und ich meinte eigendlich nicht die Haftungsfrage, sondern eine Art "Selbstabschaltung" des Robots, wenn er gegen eines der Gesetze verstößt oder eine Gefahr darstellt!
Aber es ist nicht das Problem, Gesetze aufzustellen, die lückenlos sind. Das ist reine Definitionssacheund die gibt es bereits. Beispiel Straßenverkehr: Kann keiner der Unfallparteien eine eindeutige Schuld gegeben werden, so tragen alle eine Teilschuld.
Oder DIN Vorschriften zum Betrieb oder Bau von Maschinen: Die Maschine muss (im Sinne des vorgesehen Gebrauchs) sicher sein! Hat sich jemand an der Maschine verletzt, war die Maschine nicht sicher, oder sie wurde nicht in vorgesehener Weise gebraucht.
Das Problem liegt also in der Entscheidungfindung, wie es nun wirklich war. Das ist auch wirklich ein Problem, wie Du schon sagst, für die Einhaltung der wie auch immer gearteten Gesetze für einen Roboter. Grundvorraussetzung ist: Er muss richtig einschätzen. Das ist schwierig.
Davon kann man kaum ausgehen, allerdings dürfte im Nachhinein die Entschehidung leichter fallen, denn ein Roboter vergisst nicht und Lügen könnte ebenfalls ein Verbot für ihn darstellen...
Gruß
Lesezeichen