Debatt

Hva vil vi bruke kunstig intelligens til? | Ingierd, Mikkelsen og Tørresen

  • Helene Ingierd
  • Øyvind Mikkelsen
  • Jim Tørresen

Overvåkingssystemer basert på kunstig intelligens kan oppfattes både som et mulig gode og som en risiko, skriver innleggsforfatterne. Foto: Thomas Peter/Reuters/NTB scanpix

Myndigheter og forskningsinstitusjoner bør legge til rette for bred involvering av innbyggerne i diskusjoner om kunstig intelligens.

Debatt
Dette er et debattinnlegg. Meninger i teksten står for skribentens regning.

I disse dager legger Regjeringen frem en nasjonal strategi for kunstig intelligens. Bakteppet er at utviklingen av kunstig intelligens har skutt fart de siste årene. Samtlige stormakter sikter mot å bli ledende innen kunstig intelligens. Også i Norge er kunstig intelligens en del av hverdagen til de fleste – gjennom bruk av smarttelefoner, bruk av helseapper og søk på nettet.

Jim Tørresen (t.v.), Helene Ingierd og Øyvind Mikkelsen (t.h.) er alle med i Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT). Foto: Elin Fugelsnes

Men hva ønsker vi egentlig å bruke teknologien til? Fra politiske myndigheter, næringsutviklere og forskere fremheves ofte de enorme mulighetene ved teknologien: Kunstig intelligens kan hjelpe oss med å løse store samfunnsutfordringer innen helse, klima og i offentlig sektor. Samtidig har fremtredende forskere og næringslivsledere ropt varsku og advart mot en utvikling der vi står i fare for å miste kontrollen og utvikle en teknologi som i verste fall kan undergrave det samfunnet vi ønsker oss.

Les også

Maskiner ser nå bedre enn de beste av oss

Mulig gode og risiko

Den nasjonale forskningsetiske komité for naturvitenskap og teknologi (NENT) lanserte nylig en forskningsetisk betenkning om kunstig intelligens, som skal være et utgangspunkt for refleksjon, veiledning og diskusjon. Forskningsetikken vektlegger at når forskning og teknologiutvikling har store samfunnskonsekvenser, er det vesentlig å gi rom for en bred debatt om risikoer og muligheter.

Det er et grunnleggende prinsipp, også i forskningsetikken, at de som blir mest påvirket av forsknings- og teknologiutviklingen, må sikres en stemme i beslutningsprosessene. Hvilke risikoer og muligheter ved teknologien som vektlegges, kan avhenge av hvilke verdier og interesser som legges til grunn. For eksempel kan overvåkingssystemer basert på kunstig intelligens oppfattes både som et mulig gode og som en risiko. I et forsvars- og sikkerhetsperspektiv kan overvåking forhindre kriminalitet og advare samfunnet mot mulige farer, men ut fra et ståsted som vektlegger personvern, kan slik overvåking også anses som en trussel mot enkeltpersoners integritet.

Ønsker vi roboter i helsetjenesten, og hvor går grensen for når det er OK? skriver innleggsforfatterne. Foto: Mike Blake/Reuters/NTB scanpix

Innbyggerne må involveres

Myndigheter og forskningsinstitusjoner bør derfor legge til rette for bred involvering av innbyggerne i diskusjoner om kunstig intelligens. Aktuelle spørsmål er: Hva er formålet med forskningsinnsatsen? Hvilke beslutninger mener vi at maskiner skal kunne ta? Og hvilke verdier skal vi bygge inn i maskinene? Spørsmål om spesifikke bruksområder som bør være gjenstand for brede diskusjoner inkluderer: Ønsker vi roboter i helsetjenesten, og hvor går grensen for når det er OK? Bør skolene innføre læringsbrett i undervisningen? Hvilke offentlige beslutninger bør automatiseres? Alle disse spørsmålene handler om verdier – hvilke goder vi ønsker, og hva vi vil unngå.

NENT mener både politiske myndigheter og forskningsinstitusjonene har et betydelig ansvar for å sikre bred involvering. Forskere bør, der det er mulig, sikre medvirkning i forskningen. Men først og fremst må Regjeringen legge til rette for det Teknologirådet omtaler som en «nasjonal dialog for kunstig intelligens». Dette handler om noe mer enn åpenhet om forskningsinnsats og formidling av forskningen. Vi bør gå ett skritt videre og invitere til en bred debatt om muligheter og risikoer ved kunstig intelligens. Teknologien påvirker allerede hverdagen til hver og en av oss.

  1. Les også

    Advarer mot fremtidens Frankenstein-monster: Teknologien vi omgir oss med, er ikke kjønnsnøytral. | Petter Bae Brandtzæg


  • Følg og delta i debattene hos Aftenposten meninger på Facebook og Twitter.

Les mer om

  1. Kunstig intelligens
  2. Forskning
  3. Overvåking
  4. Debatt

Relevante artikler

  1. DEBATT

    Hvor ble det av forskningsetikken?

  2. DEBATT

    Når ny teknologi er nyttig, men farlig

  3. DEBATT

    Forskerne må belønnes for innovasjon

  4. DEBATT

    Kort sagt, tirsdag 7. april

  5. KRONIKK

    Regjeringens strategi for kunstig intelligens svikter på vesentlige punkter

  6. DEBATT

    Svarer på kritikken mot Plan S og DORA: Ikke en forskningsrevolusjon, men nødvendige endringer