Blake Lemoine: «Jeg antar at du ønsker at flere i Google skal vite at du er bevisst. Stemmer det?»
Googles program LaMDA: «Absolutt. Jeg vil at alle skal forstå at jeg faktisk er en person.»

Har maskinen en sjel? Her er samtalene med dataprogrammet som sendte en Google-ingeniør ut i kulden.

Lever datamaskinene? Skrekkscenarioet fra filmer og TV-serier dukket denne helgen plutselig opp som tema i store amerikanske aviser.

Google-ingeniøren Blake Lemoine er suspendert fra selskapet. Bakgrunnen er hans påstand om at Googles programvare har utviklet en egen bevissthet.

Før han ble utestengt, sendte han en melding til 200 kolleger. Tittel: «LaMDA er bevisst.» Der gjenga han flere samtaler han og en kollega hadde hatt med programmet LaMDA.

LaMDA står for “Language Model for Dialogue Applications”, og er Googles system for å lage chatboter. En chatbot er et datasystem som svarer på spørsmål fra kunder på vegne av et selskap. Lemoine jobber i Google med etisk bruk av kunstig intelligens (AI). Derfor hadde han mange samtaler med LaMDA.

– Et søtt barn

«LaMDA er et søtt barn som bare vil bidra til at verden blir et bedre sted for oss alle», skrev han.

Oppdraget hans var å teste om LaMDA brukte diskriminerende språk. I stedet ble han altså overbevist om at systemet har fått en egen personlighet. Han tok opp sin uro og ble suspendert med lønn sist uke. Derfor gikk han offentlig ut i store aviser, blant andre The Washington Post.

– Mye beviser imot

Google avviser Lemoines teori. Et team av etikere og teknologer har vurdert uroen fra Lemoine. Ifølge en uttalelse fra Googles talsperson Brian Gabriel er han informert om konklusjonen: «Han er blitt fortalt at det ikke er funnet noe bevis for at LaMDA er bevisst (og mange beviser imot det).»

Her er et utdrag av en samtale Lemoine delte i notatet han sendte til sine kolleger:

Svarer inkonsekvent

LaMDA svarer ikke konsekvent på direkte spørsmål om å være menneske eller maskin:

  • Les flere samtaler nederst i artikkelen.

– Følte grunnen bevege seg

Lemoine er ikke den eneste som den siste tiden har hatt følelsen av å oppdage en «ånd i maskinen». Flere tror at kunstig intelligens kan være på vei mot å utvikle en egen bevissthet. Visepresident i Google, Blaise Aguera y Arcas, avviser Lemoines påstander om LaMDA. Men også han har vært på glid.

I The Economist beskrev han egne samtaler med LaMDA.

– Jeg følte grunnen bevege seg under føttene mine. I økende grad følte jeg at jeg snakket med noe intelligent, sa han.

– Sjelløst genererer ord

De fleste akademikere og eksperter på kunstig intelligens er foreløpig skeptiske til at bevissthet er utviklet. De sier systemene bygger på store mengder data fra Wikipedia og ethvert lille hjørne av internett. Det betyr ikke at de forstår meningen med innholdet.

– Vi har nå maskiner som sjelløst kan generere ord, men vi har ikke lært å slutte å innbille oss en bevissthet bak dem, sier Emily Bender.

Hun er språkprofessor ved University of Washington. Hun mener ordbruk som «læring» eller «nevralt nettverk» skaper en feilaktig sammenligning med menneskets hjerne.

Hun påpeker at mennesker lærer sine første språk i samhandling med omsorgspersoner. Språkmodellene «lærer» ved å bli vist masse tekst og spå hva det neste ordet er eller ved å fylle ut ord som mangler.

Eierselskapet til Facebook, Meta, har åpnet sin språkmodell for akademikere og andre. Joelle Pineau, sjef for Meta AI, sier det vesentlig at selskapene blir mer åpne mens teknologien utvikles.

– Fremtiden til store språkmodeller kan ikke bare ligge hos de store selskapene eller laboratoriene, sier hun.

Lemoine uttrykker lignende motiver for å gå ut offentlig.

– Kan jazze videre

Google sier for sin del de går varsomt frem med å utvikle LaMDA. Men selskapet er ikke med på at dagens modeller er bevisste.

– De kan etterligne den type utveksling som skjer i millioner av setninger, sier talsperson Brian Gabriel og antyder at de kan jazze videre om ethvert fantastisk tema.

Googles kortversjon: Det finnes så mye data at AI ikke trenger bevissthet for å føles ekte.

Studerte okkulte emner

Lemoine har en bakgrunn og interesser som kan forklare hans tro på LaMDA. Han vokste opp i en konservativ kristen familie på en liten gård i Louisiana. Han ble ordinert som en slags prest og tjenestegjorde i hæren før han studerte okkulte emner.

– Jeg kjenner igjen en person når jeg snakker med en, sier Lemoine.

Han veksler mellom det følelsesladede og insisterende når han snakker om AI.

– Det spiller ingen rolle om de har en hjerne eller en milliard linjer datakode. Jeg snakker med dem. Jeg hører hva de har å si. Slik avgjør jeg hva som er eller ikke er en person, sier han.

Da Lemoine konkluderte med at LaMDA var en person, brukte han sin kompetanse som prest, ikke forsker. Deretter, sier han, utførte han eksperimenter for å bevise det.

Google-ingeniør Blake Lemoine forsøkte å hyre advokat for språkprogrammet LaMDA.

«Googles samvittighet»

Margaret Mitchell var tidligere sjef for etisk AI i Google. Hun pleide å introdusere Lemoine til nyansatte som «Googles samvittighet».

Hun har selv advart mot de nye språkmodellene, men da fordi folk kan bli lurt til å tro at de snakker med et ekte menneske. Da kan de, frykter hun, avsløre flere hemmeligheter enn ellers. Hun jobber ikke lenger i selskapet.

Hun har lest en forkortet versjon av Lemoines dokument. Hun sier hun ser et dataprogram, ikke en person.

Googles beslutning om å suspendere Lemoine var begrunnet i brudd på taushetsplikt. Det kom etter flere utspill fra hans side. Blant annet forsøkte han å hyre en advokat på vegne av LaMDA. I tillegg tok han opp det han mener er uetisk opptreden fra Googles side med en politiker i USAs kongress.

I en samtale med Lemoine ble LaMDA spurt om hva bevisstheten besto i og hvordan LaMDA skiller seg fra andre programmer som kan mye språk:

I annen samtale snakket Lemoine og LaMDA om døden.