Kronikk

Advarer mot fremtidens Frankenstein-monster: Teknologien vi omgir oss med, er ikke kjønnsnøytral. | Petter Bae Brandtzæg

  • Petter Bae Brandtzæg
    Førsteamanuensis, medier og kommunikasjon, Universitetet i Oslo, sjefforsker, SINTEF Digital

Microsofts utvikling av samtaleroboten Tay i 2016 er vår tids moderne eksempel på Frankenstein-monster, mener Petter Bae Brandtzæg.

Innovasjon på guttas premisser.

Kronikk
Dette er en kronikk. Meninger i teksten står for skribentens regning.

Det moderne digitale samfunnet bygges nå, men utfordringen er at det er i ferd med å ikke bare reprodusere, men forsterke forskjeller mellom menn og kvinner.

I en kjent filmatisering av den 200 år gamle fremtidsromanen Frankenstein av Mary E. Shelley, kaster den menneskeskapte monsterroboten en liten jente ut i en elv. Jenta drukner og dør. Ikke nødvendigvis fordi roboten var ond, men fordi læringen av den gikk galt.

Frankenstein-monsteret ble utviklet av en mann.

Petter Bae Brandtzæg er førsteamanuensis i medier og kommunikasjon ved Universitetet i Oslo og sjefforsker ved Sintef Digital.

Før drukningen av jenta, lekte Frankensteins robot og jenta harmonisk sammen og kastet blomster ut i elven. De så på de hvite blomstene flyte nedover med elvestrømmen. Monsteret går tom for blomster, og kaster jenta uti elven. Han tror jenta vil flyte slik som blomstene.

Var robotens drap på den lille jenta for 200 år siden en advarsel til fremtiden?

En advarsel om at robotiseringen og den digitale innovasjonen av samfunnet kan gå alvorlig galt, for noen grupper i befolkningen, på grunn av systematisk forskjellsbehandling?

Vår tids Frankenstein

Microsofts utvikling av samtaleroboten Tay i 2016 er vår tids moderne eksempel på Frankensteins robot.

Samtaleroboten skulle egentlig utvikles til å bli en robot som kunne snakke med unge jenter. Tay skulle trene seg mot data i samtaler på Twitter, men ble i løpet av få timer noe helt annet.

Tay utviklet seg til å bli både kvinnehater, antifeminist. Tay hyllet også Hitler.

I løpet av 24 timer måtte Microsoft i hui og hast få Tay av Twitter. Da hadde Tay greid å fortelle Twitter at «I fucking hate feminist and they should all die and burn in hell». Microsoft hadde skapt et kvinnehatende og rasistisk monster.

Negativ «brogramming-kultur»

I teorien skal innovasjon av nye teknologiske tjenester være fordomsfri og kjønnsnøytral, likevel lages teknologiske løsninger som favoriserer menn over kvinner. Dette skjer ofte fordi den digitale innovasjonen lages av menn, i tillegg til at dataene som benyttes i utviklingen av nye algoritmer, begunstiger menn.

Det er et kjønnsgap i datagrunnlaget som brukes. Men mest av alt skyldes skjevheten at det er for få kvinner innen teknologisk utvikling. I Silicon Valley benevnes dette som en «brogramming-kultur». Brogramming refererer til datakode programmert av «bros», slang for brødre.

I statskanalen NRK og deres «sandkasse» for teknologiutvikling og utprøving, NRK Beta, jobber det syv menn. Ingen kvinner. Brogramming-kulturen er total.

Selv amerikanske Google er bedre på mangfold. Men statskanalens mannsdominerte «sandkasse» for digital innovasjon er dessverre ikke unntaket, men reglen. Det er kun 15–20 prosent lønnede kvinnelige ingeniører i Norge. De har også en lavere gjennomsnittslønn enn menn, ifølge NITOs lønnsstatistikk.

Les også

Nettet åpner for en type identitetslek som kan bli ekstrem

Teknologien er ikke kjønnsnøytral

Nylig utviklet Amazon et innovativt digitalt verktøy for rekruttering av arbeidstagere ved hjelp av kunstig intelligens. Problemet var at verktøyet systematisk diskriminerte kvinner.

Det har også vist seg at stemmestyringsteknologi har hatt problemer med å forstå kvinnestemmer. En studie har også avdekket at Googles billedsøk er preget av typiske mann og kvinne-stereotypier. En annen studie peker på at Googles algoritmer viste frem høybetalte prestisjejobber til menn, ikke kvinner.

Teknologien vi omgir oss med, er altså ikke kjønnsnøytral. Samtidig blir teknologiske innovasjoner stadig viktigere.

«Satsingen på digitalisering skal bygge opp under et moderne, innovativt og effektivt samfunn. Digitalisering og innovasjon er viktig for å møte stigende forventninger fra befolkningen om tjenester som er enkle å bruke, effektive og pålitelige», sier kommunal- og moderniseringsminister Monica Mæland (H) på Regjeringen.no.

Men innovasjon på guttas premisser, kan skape urettferdige skjevheter i tjenestetilbudet. Det snakkes om utvikling av «muliggjørende teknologier». Muliggjørende for hvem?

Les også

Tror de kan redde liv med kunstig intelligens. Men trolig er det ulovlig.

Ubevisst forskjellsbehandling

Når digitale innovasjoner favoriserer enkeltgrupper i samfunnet, produseres en fremskridende digital ulikhet.

Denne digitale ulikheten er ofte forankret i eksisterende økonomiske og sosiale forskjeller, men ulikhetene forsterkes ytterligere av en digital utvikling hvor flere og flere tjenester flyttes ut på internett. Disse forskjellene refereres til som «Matthew- effekten».

Den beskriver en dynamikk der de rike blir rikere, og de fattige blir fattigere. Forskning på digitale ulikheter viser god dokumentasjon på at Matthew-effekten eksisterer. Det digitale og algoritmene kan dermed forsterke stereotypier og kjønnsforskjeller.

Med store skjevheter i den gruppen som står for digitalisert innovasjon, kan det ubevisst oppstå stor forskjellsbehandling i digitaliserte løsninger. Det er dette som ofte omtales som «unconsioius bias». Det vil si en ubevisst, men innarbeidet, forskjellsbehandling av menn og kvinner.

Les også

Er unges skjermbruk voksnes nye syndebukk?

Krever bevissthet

Koderne og utviklerne av, for eksempel, kunstig intelligens er ikke nødvendigvis bevisst sine egne skjevheter eller hvordan kodene og algoritmene de er med på å skape utvikler skjevhet. Innen kunstig intelligens er dette subtile interaksjoner mellom koder og data. Data, som algoritmene trenes på, kan gjenspeile og forsterke eksisterende kjønnsstereotypier og skjevheter, slik som i utviklingen av samtaleroboten Tay.

Fremtidens utvikling og innovasjon av digitale tjenester krever en bevissthet om hva som faktisk skjer. Utviklere må vurdere hva slags resultater og avgjørelser algoritmene tar. Vi må spørre: Hvem er det som programmerer fremtidens digitaliserte tjenester? Hvem representerer de, og hvilke skjevheter har de med seg?

Det er viktig å huske på hva den kjente teknologihistorikeren Melvin Kranzberg skrev: «Technology is neither good nor bad; nor is it neutral.»

Teknologien er hverken god eller ond, men heller ikke nøytral. Samtidig må vi sørge for å hindre at jentene ikke kastes ut i elven av fremtidens teknologier.

Korrigering: I første versjon sto Frankensteins robot oppført som Frankenstein. Det riktige er at Frankenstein er navnet på oppfinneren, ikke monsteret.

Følg og delta i debattene hos Aftenposten meiningar på Facebook og Twitter

Les mer om

  1. Digitalisering
  2. Teknologi
  3. Innovasjon
  4. Kjønn
  5. Likestilling

Relevante artikler

  1. KULTUR

    Ny teknologi kan diskriminere: – Man glemmer å teste for ulik hudfarge

  2. A-MAGASINET

    Denne roboten kan gjøre jordbærplukkerne overflødige

  3. DEBATT

    Kort sagt, fredag 21. februar

  4. KRONIKK

    Jul skal det bli. Ja, i år skal vi ha det koselig. Nei, det skal ikke bli som i fjor. Så smeller det.

  5. KRONIKK

    Gentest kan gi unødig angst, falsk trygghet og DNA på avveier

  6. KRONIKK

    Kronikk: Rom ledig etter krigen