Hva skal den selvkjørende bilen gjøre hvis noen må dø?

Den selvkjørende bilen mister bremsene – hvem skal den treffe?

MORALSK DILEMMA 1: Hva skal den selvkjørende bilen velge når ulykken ikke er mulig å avverge?

Livet er fullt av dilemmaer. Skal vi ta fra fruktfatet eller konfektesken på fredagsmøtet? Skal vi sikte på barnevognen eller de to foreldrene dersom vi kommer kjørende og det ikke er noen andre valg?

Det siste et eksempel på et klassisk tankeeksperiment der resultatet blir fatalt uansett hva du gjør – eller ikke gjør. Men du har et valg, og det gjør deg på sett og vis ansvarlig for hvem som overlever og hvem som dør.

Dette er relativt «enkelt» når det gjelder mennesker, ettersom vi uansett er feilbarlige og kan ta eventuell skyld som unike individer.

Men på trappene til den autonome transportrevolusjonen blir det straks mer komplisert. Hvis en autobil – altså en selvkjørende bil – skulle komme i en situasjon der tap av liv ikke er til å unngå, hvordan skal den kunne ta det «riktige» valget?

Har du sett? Nå kommer de selvkjørende, flyvende bilene

En maskin med moral

Maskiner, ikke engang selvdrevne, kan kjenne til etikk og moral i normal forstand – de vil gjøre de er programmert til. Så dersom en autobil absolutt må treffe andre trafikanter, vil vi gjerne at den skal vekte sine valg på en måte som er i tråd med hva folk flest mener.

Det er her MITs (Massachusetts Institute of Technology) «Moral Machine» kommer inn. Dette er en del av en studie rundt etikk for selvdrevne maskiner, og poenget er å hanke inn synspunkter på hvordan maskiner med kunstig intelligens skal ta riktige moralske valg.

California letter på sløret om autobilulykker

MORALSK DILEMMA 2: Hvem burde bli påkjørt, bikkja eller skurken?

Hvem burde bli påkjørt, bikkja eller skurken?

«Morale Machine» setter deg som observatør av situasjoner med mer eller mindre vanskelige valg. Skal for eksempel autobilen kjøre ned en kvinne som krysser fotgjengerfeltet på rødt lys, eller kjøre i autovernet slik at bikkjene i bilen stryker med?

Her kan du bidra med hva du mener er det mest riktige eller moralsk akseptable, og se hvordan dine valg er sammenlignet med andres.

Det må nevnes at flere av situasjonene er rett så søkte. Som for eksempel når det nevnes at noen av personene er kriminelle, gravide, leger eller direktører. Det er neppe noe en selvkjørende bil vil vite noe om – med mindre den er veldig kjapt ute på Facebook og LinkedIn.

Ved siden av å hanke inn mer data, er poenget å få folk til å tenke over problemstillingen rundt situasjonsavhengige og livsviktige valg som gjøres av maskiner og ikke mennesker.

Har du tid og lyst, kan du for øvrig også lage dine egne scenarioer som du kan la andre prøve seg på. MITs Moral Machine finner du på instituttets hjemmesider.

Tek.no er eid av mediehuset Tu.no

Superdatamaskin for selvkjørende biler: – Denne er som å ha 150 MacBook Pro-maskiner i bagasjerommet

Mercedes-Benz S500 Plug-in Hybrid Denne millionbilen har et hjelpemiddel for alt