Regjeringens strategi for kunstig intelligens svikter på vesentlige punkter | Kristine Bærøe og Torbjørn Gundersen
Kunstig intelligens kan i verste fall ikke bare true våre verdier. Den kan også utfordre selve vilkårene for etisk handling.
Tidligere digitaliseringsminister Nikolai S. Astrup la nylig frem Nasjonal strategi for kunstig intelligens (KI). I en global kontekst skal Norge gå «foran for å utvikle menneskevennlig og pålitelig kunstig intelligens», ifølge Astrup.
Men støtter strategien dette målet? Nei, den svikter på to vesentlige punkter.
Den tar ikke tilstrekkelig innover seg det særegne nye ved at KI kan ha en negativ innvirkning på vilkårene for etisk og bærekraftig samfunnsutvikling. Den er også for lite forpliktende og fremsynt når det gjelder tiltakene som skal hindre skadelig konsekvenser av KI.
Kunstig intelligens er kort fortalt maskiner som kan løse en fysisk eller kognitiv oppgave som ellers krever menneskelig intelligens. Den mest lovende formen for intelligente maskiner i dag er maskinlæring, dvs. at maskiner forbedrer sin yteevne basert på tidligere resultater.
Maskinlæring er i dag en tilgjengelig støtte for å analysere og klassifisere data og gjøre prediksjoner på bakgrunn av data, i alt fra medisinsk diagnostisering og værmelding til kartlegging av mulige petroleumsforekomster.
Verdier står på spill
Hva med vilkårene for en etisk og bærekraftig samfunnsutvikling?
Strategien angir følgende sentrale problemstillinger knyttet til kunstig intelligens:
– KI krever store mengder data samtidig som personvern innebærer minst mulig innsyn i data.
– Diskriminerende skjevheter som inngår i designprosessen opprettholdes og forsterkes gjennom bruk av teknologien.
– Det er fravær av transparens i løsninger basert på dyplæring i KI-systemer, dvs. det er mangel på menneskelig innsikt i hvordan dataene som blir puttet inn i systemet gir et gitt resultat.
– Autonome og selvstyrte former for KI-beslutninger kan føre til skade og uklare ansvarsforhold for konsekvensene av disse beslutningene.
Vi mener denne listen må suppleres.
En ansvarlig føre-var-holdning innebærer en adskillig bredere utredning av hvilke verdier som står på spill ved innføring av KI i næringslivet og offentlige virksomheter.
Kunstig intelligens kan i verste fall ikke bare true våre verdier. Den kan også utfordre selve vilkårene for etisk handling, det vil si grunnlaget for sosiale systemer og institusjonell håndtering av etiske utfordringer.
Menneskers ansvar for sine handlinger
Her er et par eksempler på hvordan dette kan skje:
Når beslutningstageres intelligens påvirkes, suppleres eller erstattes med KI, blir ikke spørsmålet bare hvem som har ansvaret, men også om mennesker har ansvar for sine handlinger.
Denne forestillingen ligger til grunn for vår sosiale omgangsform der vi anerkjenner hverandre, fordeler skyld og bestemmer hvem som har krav på spesiell beskyttelse og hvem som ikke trenger det.
Dersom bruk av menneskelig intelligens reduseres i opplæring, behandling og omsorg for medmennesker, forsvinner også disse konkrete erfaringer med sosiale, emosjonelle og eksistensielle, menneskelige utfordringer. Det betyr at vilkår for erfaringer som vekker medfølelse, solidaritet og opplevelser av urettferdighet endres. Fravær av slike erfaringer kan påvirke motivasjon, handling, praktisk etikk og politisk ideologi.
Han har solgt 20 millioner bøker: - Maskinene kan komme til å kjenne oss bedre enn vi kjenner oss selv.
Menneskelig beslutningskontroll
Regjeringens vyer om menneskevennlig og pålitelig KI forutsetter menneskelig beslutningskontroll over de teknologiske systemene. Samtidig er den største strukturelt transformative utfordringen KI-systemer bærer med seg, nettopp at KI-intervensjoner gradvis vil kunne undergrave denne kontrollen.
Dette scenarioet er ikke basert på fantasifull dommedagsprofeti. Det kan komme snikende som et resultat av et uforutsett samspill av innførte praktiske tiltak med ulik grad av transparens, men også når relevante konsekvenser av KI ikke har vært tilstrekkelig vurdert eller vektlagt.
Mange KI-løsninger fremstår som fremtidige muligheter. Når et gjennombrudd finner sted, kan videreutvikling og spredning av teknologien skje veldig raskt. For å kunne møte ulike scenarioer før uønskede former for KI er tatt i bruk, må vi ha gode styringsstrategier. Men vi trenger også mer kunnskap og forståelse av hvordan utviklingen best bør styres både nasjonalt og globalt.
Konflikt mellom prinsipper
Hvordan skal prinsippene omsettes og anvendes?
Regjeringens styringsstrategi er i hovedsak sentrert rundt etiske prinsipper utarbeidet av EUs høynivå ekspertgruppe på KI. Disse prinsippene er basert på grunnleggende rettighetstenkning og har gjennomgått en omfattende politisk prosess. Prinsippene reflekterer:
1. Respekt for menneskets selvbestemmelse og kontroll
2. Krav om sikre og robuste KI-løsninger
3. Vektlegging av personvernet
4. Krav om gjennomsiktighet i tilknytning til KI-baserte beslutninger
5. Støtte til inkludering, mangfold og likebehandling
6. Nytte for miljø og samfunn og unngåelse av negative virkninger på «institusjoner, demokratiet og samfunnet som helhet»
7. Forankring i ansvarlighet som også åpner for revisjon av systemene.
Prinsippene kan komme i konflikt og må da avveies mot hverandre. Regjeringen forsikrer at dette skal skje på en «rasjonell og metodisk måte». Vi etterlyser en klargjøring av hva dette innebærer.
Hva vil vi bruke kunstig intelligens til? | Ingierd, Mikkelsen og Tørresen
Mer omfattende farevurderinger
Utover disse prinsippene ønsker regjeringen et offentlig ordskifte om hva slags type KI vi ønsker å ta i bruk i Norge og viser til ulike tilsyn som egnede initiativtagere for debatt.
Det er sterke økonomiske og politiske krefter knyttet til utvikling og bruk av KI. Nøyaktig hvilken rolle den offentlige debatten skal spille opp imot disse kreftene, må også avklares.
EUs ekspertgruppe understreker at de generelle prinsippene må omsettes innad i ulike sektorer gjennom egnede institusjoner og i tråd med sektorenes spesifikke betingelser og utfordringer. I tillegg vektlegger EU-gruppen sterkt behovet for etiske vurderinger i alle faser av livssyklusen til et KI-system, det vil si ved design, utvikling og bruk av teknologien.
Vi etterlyser en gjennomtenkt og konkret tiltaksplan for hvordan de etiske prinsippene skal omsettes i de ulike sektorene i en norsk kontekst.
Skal målsetningen om menneskevennlig og pålitelig KI nås, trengs en strategi med mer omfattende farevurderinger og grundigere implementeringsplan for etikk og offentlig debatt.