Kronikk

Regjeringens strategi for kunstig intelligens svikter på vesentlige punkter | Kristine Bærøe og Torbjørn Gundersen

  • Kristine Bærøe
    Førsteamanuensis, Institutt for global helse og samfunnsmedisin, Universitetet i Bergen
  • Torbjørn Gundersen
    Postdoktor, Senter for profesjonsstudier, Oslo Met

Tegning: Arne Nøst

Kunstig intelligens kan i verste fall ikke bare true våre verdier. Den kan også utfordre selve vilkårene for etisk handling.

Kronikk
Dette er en kronikk. Meninger i teksten står for skribentens regning.

Tidligere digitaliseringsminister Nikolai S. Astrup la nylig frem Nasjonal strategi for kunstig intelligens (KI). I en global kontekst skal Norge gå «foran for å utvikle menneskevennlig og pålitelig kunstig intelligens», ifølge Astrup.

Men støtter strategien dette målet? Nei, den svikter på to vesentlige punkter.

Den tar ikke tilstrekkelig innover seg det særegne nye ved at KI kan ha en negativ innvirkning på vilkårene for etisk og bærekraftig samfunnsutvikling. Den er også for lite forpliktende og fremsynt når det gjelder tiltakene som skal hindre skadelig konsekvenser av KI.

Kunstig intelligens er kort fortalt maskiner som kan løse en fysisk eller kognitiv oppgave som ellers krever menneskelig intelligens. Den mest lovende formen for intelligente maskiner i dag er maskinlæring, dvs. at maskiner forbedrer sin yteevne basert på tidligere resultater.

Kristine Bærøe er førsteamanuensis ved Institutt for global helse og samfunnsmedisin, Universitetet i Bergen.

Maskinlæring er i dag en tilgjengelig støtte for å analysere og klassifisere data og gjøre prediksjoner på bakgrunn av data, i alt fra medisinsk diagnostisering og værmelding til kartlegging av mulige petroleumsforekomster.

Verdier står på spill

Hva med vilkårene for en etisk og bærekraftig samfunnsutvikling?

Strategien angir følgende sentrale problemstillinger knyttet til kunstig intelligens:

– KI krever store mengder data samtidig som personvern innebærer minst mulig innsyn i data.

– Diskriminerende skjevheter som inngår i designprosessen opprettholdes og forsterkes gjennom bruk av teknologien.

– Det er fravær av transparens i løsninger basert på dyplæring i KI-systemer, dvs. det er mangel på menneskelig innsikt i hvordan dataene som blir puttet inn i systemet gir et gitt resultat.

– Autonome og selvstyrte former for KI-beslutninger kan føre til skade og uklare ansvarsforhold for konsekvensene av disse beslutningene.

Torbjørn Gundersen er postdoktor ved Senter for profesjonsstudier, Oslo Met.

Vi mener denne listen må suppleres.

En ansvarlig føre-var-holdning innebærer en adskillig bredere utredning av hvilke verdier som står på spill ved innføring av KI i næringslivet og offentlige virksomheter.

Kunstig intelligens kan i verste fall ikke bare true våre verdier. Den kan også utfordre selve vilkårene for etisk handling, det vil si grunnlaget for sosiale systemer og institusjonell håndtering av etiske utfordringer.

Menneskers ansvar for sine handlinger

Her er et par eksempler på hvordan dette kan skje:

Når beslutningstageres intelligens påvirkes, suppleres eller erstattes med KI, blir ikke spørsmålet bare hvem som har ansvaret, men også om mennesker har ansvar for sine handlinger.

Denne forestillingen ligger til grunn for vår sosiale omgangsform der vi anerkjenner hverandre, fordeler skyld og bestemmer hvem som har krav på spesiell beskyttelse og hvem som ikke trenger det.

Dersom bruk av menneskelig intelligens reduseres i opplæring, behandling og omsorg for medmennesker, forsvinner også disse konkrete erfaringer med sosiale, emosjonelle og eksistensielle, menneskelige utfordringer. Det betyr at vilkår for erfaringer som vekker medfølelse, solidaritet og opplevelser av urettferdighet endres. Fravær av slike erfaringer kan påvirke motivasjon, handling, praktisk etikk og politisk ideologi.

Les også

Han har solgt 20 millioner bøker: - Maskinene kan komme til å kjenne oss bedre enn vi kjenner oss selv.

Menneskelig beslutningskontroll

Regjeringens vyer om menneskevennlig og pålitelig KI forutsetter menneskelig beslutningskontroll over de teknologiske systemene. Samtidig er den største strukturelt transformative utfordringen KI-systemer bærer med seg, nettopp at KI-intervensjoner gradvis vil kunne undergrave denne kontrollen.

Dette scenarioet er ikke basert på fantasifull dommedagsprofeti. Det kan komme snikende som et resultat av et uforutsett samspill av innførte praktiske tiltak med ulik grad av transparens, men også når relevante konsekvenser av KI ikke har vært tilstrekkelig vurdert eller vektlagt.

Mange KI-løsninger fremstår som fremtidige muligheter. Når et gjennombrudd finner sted, kan videreutvikling og spredning av teknologien skje veldig raskt. For å kunne møte ulike scenarioer før uønskede former for KI er tatt i bruk, må vi ha gode styringsstrategier. Men vi trenger også mer kunnskap og forståelse av hvordan utviklingen best bør styres både nasjonalt og globalt.

Konflikt mellom prinsipper

Hvordan skal prinsippene omsettes og anvendes?

Regjeringens styringsstrategi er i hovedsak sentrert rundt etiske prinsipper utarbeidet av EUs høynivå ekspertgruppe på KI. Disse prinsippene er basert på grunnleggende rettighetstenkning og har gjennomgått en omfattende politisk prosess. Prinsippene reflekterer:

1. Respekt for menneskets selvbestemmelse og kontroll

2. Krav om sikre og robuste KI-løsninger

3. Vektlegging av personvernet

4. Krav om gjennomsiktighet i tilknytning til KI-baserte beslutninger

5. Støtte til inkludering, mangfold og likebehandling

6. Nytte for miljø og samfunn og unngåelse av negative virkninger på «institusjoner, demokratiet og samfunnet som helhet»

7. Forankring i ansvarlighet som også åpner for revisjon av systemene.

Prinsippene kan komme i konflikt og må da avveies mot hverandre. Regjeringen forsikrer at dette skal skje på en «rasjonell og metodisk måte». Vi etterlyser en klargjøring av hva dette innebærer.

Les også

Hva vil vi bruke kunstig intelligens til? | Ingierd, Mikkelsen og Tørresen

Mer omfattende farevurderinger

Utover disse prinsippene ønsker regjeringen et offentlig ordskifte om hva slags type KI vi ønsker å ta i bruk i Norge og viser til ulike tilsyn som egnede initiativtagere for debatt.

Det er sterke økonomiske og politiske krefter knyttet til utvikling og bruk av KI. Nøyaktig hvilken rolle den offentlige debatten skal spille opp imot disse kreftene, må også avklares.

EUs ekspertgruppe understreker at de generelle prinsippene må omsettes innad i ulike sektorer gjennom egnede institusjoner og i tråd med sektorenes spesifikke betingelser og utfordringer. I tillegg vektlegger EU-gruppen sterkt behovet for etiske vurderinger i alle faser av livssyklusen til et KI-system, det vil si ved design, utvikling og bruk av teknologien.

Vi etterlyser en gjennomtenkt og konkret tiltaksplan for hvordan de etiske prinsippene skal omsettes i de ulike sektorene i en norsk kontekst.

Skal målsetningen om menneskevennlig og pålitelig KI nås, trengs en strategi med mer omfattende farevurderinger og grundigere implementeringsplan for etikk og offentlig debatt.

  1. Les også

    Tror de kan redde liv med kunstig intelligens. Men trolig er det ulovlig.

  2. Les også

    Kunstig intelligens finner skjulte kulturminner

  3. Les også

    Maskiner ser nå bedre enn de beste av oss

  • Følg og delta i debattene hos Aftenposten meninger på Facebook og Twitter.

Les mer om

  1. Data
  2. Teknologi
  3. Etikk
  4. maskinlæring
  5. Kunstig intelligens
  6. Kronikk

Relevante artikler

  1. DEBATT

    Hva vil vi bruke kunstig intelligens til?

  2. KULTUR

    Kunstig intelligens har store fallgruver. Nytt eksperiment skal hindre personvernbrudd og diskriminering.

  3. DEBATT

    Kort sagt, fredag 21. februar

  4. ØKONOMI

    Suksess-forfatter advarer: Den nye Stalin kan komme med kunstig intelligens

  5. DEBATT

    Hvor ble det av forskningsetikken?

  6. DEBATT

    Koronaviruset viser behovet for kunstig intelligens