Kan maskiner utvikle kunstig moral? Jeg vil vise at det er mulig.

Jo viktigere avgjørelser vi overlater til kunstig intelligente systemer, jo viktigere blir det at de avgjørelsene ikke bare er intelligente, men også moralsk gode.

Når er det viktig med moralsk gode avgjørelser? Kanskje i alle tilfeller? Tenk for eksempel på en fremtidig robot i hjemmesykepleien.
Viten er Aftenpostens satsing på forskning og vitenskap, der forskere og fagfolk fra hele landet bidrar med artikler.

De siste årene har forskerne gjort store fremskritt innen såkalt kunstig intelligens. Det finnes ingen klar og tydelig definisjon på kunstig intelligens, men generelt sett kan man si at kunstig intelligens er intelligent adferd i kunstig materiale.

En robot eller en datamaskin som gjør noe som vi ville karakterisert som intelligent hvis et menneske hadde gjort det, er et eksempel på slik kunstig intelligens.

Einar Duenger Bøhn er professor i filosofi, og medlem av Centre for Artificial Intelligence Research, Universitetet i Agder

Gjenkjenner kreftbilder

Det finnes mange måter å realisere kunstig intelligens, men blant de mer interessante i våre dager finner vi forskjellige måter å trene opp et system til å kategorisere mønster. Med såkalt maskinlæring kan man for eksempel fore et system med mange gamle røntgenbilder av kreft slik at det gjenkjenner nye røntgenbilder av kreft.

Det interessante er at slike systemer i dag er blitt bedre enn menneskelige leger til å stille en kreftdiagnose.

Det er selvfølgelig bare ett eksempel. I prinsippet kan det brukes til å gjenkjenne alle slags ting basert på mønstre det etterlater seg, for eksempel skattesnusk, personligheten din basert på like-adferden din på Facebook, eller vinnerstrategier i brettspill som Sjakk og Go.

Moralsk gode avgjørelser

Kunstig intelligente systemer blir i våre dager flinkere og flinkere til å ta de avgjørelsene de er trent opp til å ta, mye takket være mengden data de i dag kan trenes opp på i forhold til hva som var tilgjengelig tidligere. Vi overlater også derfor flere og flere avgjørelser til slike systemer. Men jo viktigere avgjørelser vi overlater til slike systemer, jo viktigere blir det at de avgjørelsene ikke bare er intelligente, men også moralsk gode.

Vi kjenner alle mennesker som er intelligente, men ikke særlig moralske, eller moralske, men ikke særlig intelligente. Intelligens og moral er derfor ikke alltid det samme, så å trene opp et system til å bli veldig intelligent er derfor ikke det samme som å trene det opp til å bli et moralsk godt system. Men vi trenger ikke alltid bare kunstig intelligente systemer, i mange tilfeller trenger vi også kunstig moralske systemer.

Roboter i hjemmesykepleien

Tenk for eksempel på bedrifter som lever av å samle inn personlige data for å bruke det til målrettet reklame. Hvilke personlige data om hvem, når, og til hvilket formål er det moralsk ok å selge til andre bedrifter? Dette er et veldig komplisert moralsk spørsmål hvis svar hviler på mønstre det er svært vanskelig for oss mennesker å se helheten av, spesielt i tilfeller når avgjørelser må tas kjapt.

Eller bare tenk på en fremtidig robot i hjemmesykepleien. Den kan ikke bare tenke på hva som er mest intelligent i form av mest effektivt å gjøre i forhold til den eldre personen den er satt til å passe på, den må, eller i hvert fall bør, også ta hensyn til indre tilstander og medmenneskelige relasjoner, slik menneskelige sykepleiere ville gjort, spesielt i tilfeller når avgjørelser må tas kjapt.

Kunstig intelligente systemer bør derfor i slike og mange – eller alle? – andre tilfeller ikke bare være intelligente, men også moralske.

Noe unikt menneskelig?

Jeg forsker derfor for tiden på hvordan slik kunstig moral i det hele tatt er mulig. For er ikke nettopp moral noe unikt menneskelig som ikke kan automatiseres?

Det er interessant å merke seg at akkurat det trodde man også om intelligens for bare en til to generasjoner siden, men i 1997 ble likevel verdensmesteren i sjakk slått av systemet Deep Blue, og i 2016 ble verdensmesteren i det enda mer uforutsigbare brettspillet Go slått i fire av fem runder av systemet AlphaGo. Både sjakk og Go sees på som spill som krever en svært høy grad av intelligens. I begge tilfeller blir vi i dag slått av kunstig intelligens.

Koreanske Lee Sedol var verdens beste Go-spiller - inntil en datamaskin var den beste i 2016.

I mitt arbeid fokuserer jeg spesielt på AlphaGo med tanke på å vise at kunstig moral er mulig. Min hypotese er at akkurat som vi har utviklet AlphaGo til å bli mer intelligent enn oss innenfor et lukket domene, så kan og bør vi utvikle et system som blir mer moralsk enn oss innenfor et lukket domene.

Brettspill som krever moral

Ett mulig slikt system er det jeg kaller AlphaMoral. Den enkleste måten å se for seg AlphaMoral på, er ved å tenke seg et brettspill som krever en viss moral for å gjøre det bra, på lignende vis som Go krever en viss intelligens for å gjøre det bra.

Det finnes faktisk slike moralske brettspill. Jeg prøver for eksempel for tiden ut spillet Fog of Love, hvor den moralske dimensjonen handler om å gi og ta for å skape balanse i et forhold mellom to mennesker. De moralske dilemmaene her dreier seg ofte om å ofre seg litt, men ikke for mye for den andre, slik at forholdet i sin helhet blir best mulig. Den balansegangen er ofte vanskelig for oss mennesker, men kanskje lettere for en maskin?

Fire steg mot kunstig moral

AlphaMoral kan bygges opp på samme vis som AlphaGo.

1. For det første må det inneholde reglene for spillet.

2. For det andre må det regne ut for hvert trekk mulige mottrekk.

3. For det tredje må det trenes opp på veldig mange spill av gode spillere, slik at det kan kategorisere vinnerstrategier (på lignende vis som vi så ovenfor i forhold til røntgenbilder av kreft).

4. For det fjerde må det regne ut sannsynligheten for at tilgjengelige trekk leder til en vinnerstrategi gitt hvordan runden har utviklet seg til da, og så må det velge det trekket som mest sannsynlig leder til en vinnerstrategi. På denne måten vant AlphaGo over mennesker i Go, og min hypotese er at på samme måte kan AlphaMoral vinne over oss i moralske spill. Vi trenger bare å utvide horisonten vår fra å tenke i form av ren intelligens i retning av moralsk intelligens.

Det gjenstår mange filosofiske spørsmål omkring et slikt forskningsprosjekt, men min konklusjon så langt er at selv om intelligens og moral ikke er det samme, er det ingenting prinsipielt som muliggjør kunstig intelligens men ikke kunstig moral.