Debatt

Utviklere av kunstig intelligens må få det leger har. Nemlig en profesjonsetikk.

  • Inga Strümke
    Phd i partikkelfysikk, forsker på kunstig intelligens, NTNU. Styremedlem, Norsk råd for digital etikk.
  • Ishita Barua
    Lege, forsker på kunstig intelligens i medisin, Oslo Universitetssykehus og Universitetet i Oslo. Styremedlem, Norsk råd for digital etikk.
Utviklere av kunstig intelligens kan havne i en spagat mellom kommersielle interesser og samfunnets beste, skriver innleggsforfatterne.

En utvikler av kunstig intelligens kan bli bedt om å lage systemer som sprer «fake news».

Debatt
Dette er et debattinnlegg. Meninger i teksten står for skribentens regning.

Hvis en sykehusdirektør ber en lege gjennomføre operasjoner på friske pasienter for å pynte på statistikken, kan legen nekte og vise til at uforsvarlig behandling bryter med helsepersonelloven.

Lignende lovverk finnes ikke for utviklere av kunstig intelligens (AI). Disse har kun etiske retningslinjer som ikke er bindende. Tiden er kommet for å gi AI-utviklere samme ansvar og beskyttelse som leger.

Finnes ingen profesjonsetikk

Leger har så stor påvirkning på livet vårt at vi beskytter deres yrke gjennom en autorisasjon og kaller det en «profesjon». Andre profesjoner er for eksempel advokater og ingeniører.

Brudd på profesjonsetikk medfører konsekvenser. Legen kan miste autorisasjonen og bli straffeforfulgt, men en lege kan ikke sparkes for å nekte å bryte profesjonsetikken. I tillegg er det vanskelig for arbeidsgiver å erstatte en lege med en annen, da alle leger er omfattet av reguleringen.

Innen kunstig intelligens er situasjonen en helt annen. Det finnes ingen profesjonsetikk for AI-utviklere.

En AI-utvikler kan bli bedt om å lage systemer som rangerer folk basert på etnisitet eller utseende, overvåker minoriteter, eller sprer «fake news». Alt dette er hentet fra virkeligheten.

Dersom en AI-utvikler nekter å utvikle uforsvarlige systemer, kan vedkommende miste oppdrag eller erstattes av en annen utvikler. AI-utviklere kan derfor havne i spagat mellom kommersielle interesser og samfunnets beste.

Samfunnets interesser vs. arbeidsgiverens

En ny forskningsartikkel peker på det sosiale dilemmaet hvor AI-utviklere må veie samfunnets interesser opp mot arbeidsgiverens.

Et sosialt dilemma kjennetegnes av at det beste utfallet for fellesskapet inntreffer dersom alle samarbeider, men ingen gjør det fordi kostnaden for enkeltindividet er for høy. Vi vet alle at vi bør fly mindre, men de færreste er villige til å ofre egen ferie.

Klimakrisen er bare ett eksempel på at sosiale dilemmaer ikke kan løses på individnivå, men er avhengig av koordinerende mekanismer.

Profesjonsetikk er en slik mekanisme som beskytter enkeltindividet mot å havne i spagaten. Ansvaret for etisk forsvarlig AI-utvikling må plasseres på samfunnsnivå. Med autorisasjon eller profesjonsetikk kan ikke en AI-utvikler som nekter å utvikle uetiske algoritmer, simpelthen erstattes av en annen utvikler.

Så lenge AI-utviklere ikke har en profesjonsetikk, kan ikke etisk forsvarlig utvikling av kunstig intelligens garanteres.

Det haster

La oss innse at AI kommer til å få stor samfunnspåvirkning, og handle deretter. Vi har allerede sett skandaler som valgpåvirkning og diskriminering.

Medisinsk historie inneholder grusomheter med mennesker som forsøkskaniner. Vi har derfor fått en profesjonsetikk for leger. Enn så lenge har vi unngått like fatale utfall knyttet til AI. Men det haster å etablere en profesjonsetikk for AI-utviklere.

Medisin har gjennom århundrer utviklet seg til å bli et modent fagfelt med evidensbasert praksis og erfaring med etiske dilemmaer. Den lynraske utviklingen av AI som påvirker våre liv, gir oss ikke tid til å prøve og feile på vei mot en trygg praksis.


  • Følg debattene hos Aftenposten meninger på Facebook og Twitter.

Mest lest akkurat nå

  1. 1
    KOMMENTAR
    Publisert:

    En 90 minutters kraftanstrengelse

  2. 2
  3. 3
  4. 4
  5. 5