Tag Manager script

17. november 2016

Robotter lærer moral af mennesker

En selvstyrende bil kommer kørende. En fodgænger går over vejen længere fremme, da bremsen svigter. Bilen skal nu vælge:
Vil jeg køre over i modsatte bane og ramme en betonklods og dermed skade/dræbe min egen passager, eller skal jeg fortsætte ligeud og dermed skade/dræbe fodgængeren?

Bliver valget anderledes, hvis man tilføjer betingelsen, at fodgængeren gik over for rødt?

Eller hvad hvis fodgængeren var en gravid kvinde? Eller en overvægtig mand? Eller en røver på flugt?
Hvad hvis der sidder to passagerer i bilen - en kvinde og et barn, og der er tre fodgængere, men de gik over for rødt, og den ene af fodgængerne er en bankrøver?

Asimovs robotlove er ikke tilstrækkelige

Når vi kører bil, vil vi typisk reagere pr. instinkt, for det er det, vi kan nå. Når en selvkørende (autonomous) bil kører, har den overlegen proceskraft og hurtigere reflekser men intet instinkt. En selvkørende bil skal køre efter regler, og det er ukompliceret, hvis valget kan rummes inden for Asimovs tre robotlove:

  1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade
  2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov
  3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov

Men hvad hvis valget står mellem at skade to mennesker? Hvilke kriterier skal vi opstille for det valg?

Spiller det f.eks. ind, om det ene menneske er gammelt og dermed har mindre af livet til gode? Eller spiller det ind, om det ene menneske overholdt loven, mens det andet ikke gjorde?

Skal bilen have præference for at blive i sin bane og dermed ramme den fodgænger, der burde have set sig for, inden han gik ud på vejen, eller skifte bane og dermed ramme den fodgænger, der havde en berettiget forventning om at kunne gå, hvor hun går, da bilen ikke havde retning mod hende?

For at hjælpe robotter med at træffe disse moralske valg, eksperimenterer MIT (Massachusetts Institute of Technology) med et machine learning program kaldet Moral Machine:

http://moralmachine.mit.edu/  

Her genererer en algoritme forskellige situationer, der rummer et moralsk dilemma a la dem, der beskrives ovenfor. Brugeren skal så vælge, hvad bilen skal gøre i hver enkelt situation. Målet er, at bilerne/robotterne skal lære af de akkumulerede moralske valg, som mennesker træffer og så selv kunne agere i overensstemmelse med almen menneskelig moral.

Prøv den - det tager kun 10 minutter, og når du er færdig, vil en lille del af dig leve videre i en robotbils sjæl.

Update november 2018: Forsøget er nu afsluttet, og der viser sig et nogenlunde entydigt mønster i deltagernes besvarelser - eller rettere 3 mønstre, afhængig af geografi. For de valg, brugerne træffer, afhænger af, om de kommer fra: Europa/Nordamerika, Syd-/Mellemamerika eller Asien.

https://www.dr.dk/nyheder/viden/teknologi/40-millioner-mennesker-har-talt-hvem-maa-selvkoerende-biler-koere-ned 

Får robotter bedre moral end mennesker?

En lille interessant krølle på historien om robotter og moral er, at vi tilsyneladende lærer robotterne bedre moral, end vi selv er villige til at praktisere - ligesom vi gør med vores børn.

Ifølge denne artikel fra IDA Universe vil et flertal anlægge en utilitaristisk tankegang og lære robotten, at den altid skal sørge for, at så få mennesker som muligt dør eller kommer til skade.

Men samtidig siger et flertal, at de ikke ville købe en bil, der valgte at slå føreren ihjel for at skåne fodgængerne.

Vil vi være nødt til at blive enige om et fælles moralkodeks for at undgå, at laveste etiske fællesnævner bliver en konkurrenceparameter. Altså ligesom vi i dag har sikkerhedsmæssige og miljømæssige minimumsstandarder?

Og hvem skal beslutte disse standarder? EU? FN?

Og hvis vi får etiske minimumsstandarder, vil der så opstå en undergrundsindustri af værksteder (eller nørder, der bare kobler op til bilerne via internettet), der hacker biler, så de kan omgå de fælles standarder og beskytte fører og passagerer i en situation, hvor der skal vælges mellem dem og andre trafikanter?

Bevares, man får en straf for at have hacket sin bil - men hvis alternativet er at bilen kan risikere at slå en ihjel, vil man så ikke vælge at beskytte sig selv og sin familie?

Tyskland viser vejen

Tyskland er - i hvert fald på denne side af 1945 - generelt et godt sted at se hen for inspiration. Det gælder også, når det drejer sig om selvkørende biler. Det tyske transportministerium har i 2017 udsendt et sæt retningslinjer, der bl.a. skal sikre, at de etiske valg ikke er op til de enkelte bilfabrikanter, og som selvkørende bilers software dermed også skal understøtte, hvis bilerne skal have adgang til tyske veje.

https://ing.dk/artikel/tyskland-selvkoerende-bilulykker-systemet-skal-vaelge-loesning-skader-faerrest-mennesker

Retningslinjerne er udviklet af en gruppe bestående af eksperter i både jura, teknologi og etik. Hovedprincippet er i øvrigt, at menneskeliv altid skal vægtes højere end materielle ting og dyr. Hvis tab af menneskeliv eller udsættelse af mennesker for livsfare er uundgåeligt, skal bilen vælge det udfald, der vil give færrest tabte menneskeliv, og dette skal ske uden en kvalitativ vurdering af de menneskeliv, der er i fare, dvs. der må ikke foretages valg på baggrund af køn, alder, helbred eller andre personkarakteristikker. Tigger og konge, ung eller gammel, mand eller kvinde, syg eller rask - alle er det samme værd.

Der ud over er der retningslinjer for placering af ansvar, når en selvkørende bil forvolder skade, sikring mod hacking, virksomheders indsamling og brug af persondata, hvilke typer af veje, bilerne må køre autonomt på mm.


Ingen kommentarer:

Send en kommentar