Ich habe kürzlich einen Bericht über autonomes Fahren gesehen, und da ging es unter anderem darum, daß so ein autonomes Auto nicht "bewerten" darf. Also sagen wir mal, ein Auto, das mehr oder weniger komplett von einem Computer gesteuert wird, rast aus welchen Gründen auch immer auf eine Gruppe von 3 Fußgängern zu. Der Computer erkennt in letzter Sekunde, daß die drei Fußgänger tot wären. Oder, er könnte schnell noch daran vorbei lenken, damit aber mit ziemlicher Sicherheit den Insassen seines Fahrzeuges töten.
Der Computer könnte jetzt sagen: das mache ich, denn unterm Strich habe ich zwei Menschenleben gerettet. Diese "Bewertung" darf er aber laut Gesetzgeber nicht machen. Er müßte die drei Fußgänger überfahren, wenn damit das Leben des Insassen gerettet wäre.
Was haltet ihr von dieser moralischen Frage?