Klingt durchaus sinnvoll, allerdings würde ich das noch etwas erweitern...

Er behandelt erstmal alle Menschen gleich, es sei denn ein Mensch befiehlt ihm die anderen Menschen bei der Rettung höher zu priorisieren. Beim I-Robot Beispiel würde er also, wenn der Mann "rette das Mädchen!" sagt, auch genau das tun und zwar unabhängig von der Überlebenswahrscheinlichkeit. Falls andererseits Jemand sagen würde "rette mich zuerst!" muss der Robot das ignorieren.

Also vergleichbar mit der bereits vorgeschlagenen "ich-möchte-nicht-gerettet-werden-Datenbank", nur daß man diese Entscheidung erst dann treffen muss wenn man tatsächlich in eine solche Situation gerät (außerdem ist es datenschutztechnisch deutlich unproblematischer).