Tag Manager script

17. november 2016

Robotter lærer moral af mennesker

En selvstyrende bil kommer kørende. En fodgænger går over vejen længere fremme, da bremsen svigter. Bilen skal nu vælge:
Vil jeg køre over i modsatte bane og ramme en betonklods og dermed skade/dræbe min egen passager, eller skal jeg fortsætte ligeud og dermed skade/dræbe fodgængeren?

Bliver valget anderledes, hvis man tilføjer betingelsen, at fodgængeren gik over for rødt?

Eller hvad hvis fodgængeren var en gravid kvinde? Eller en overvægtig mand? Eller en røver på flugt?