Dette vil du helst ikke vite noe om. Ifølge de som har best greie på saken, er det er en reell fare for at datamaskiner tar over styringen og knuser menneskene. Det skjer ikke i morgen eller til neste år. Men det trenger heller ikke være lenger til enn at utslettelsen vil inkludere mange av oss som lever i dag. Faktisk mener nesten ingen av ekspertene på kunstig intelligens at faren for en slik dommedag er null.

Journalist Per Kristian Bjørkeng har skrevet om teknoligi og samfunn i Aftenposten i en årrekke.

Denne artikkelen skal altså ikke handle om at robotene kommer for å ta jobben din. Den skal handle om det som kan komme etterpå. Fagfolkene kaller det kunstig superintelligens (ASI – Artificial Super Intelligence).Vil du ikke da si at det er litt påfallende at teknofolk som garantert vet mer om dette enn deg, er veldig, veldig bekymret? Elon Musk har mareritt om nattenmed tanke på hva som kan komme til å skje. Bill Gates skjønner ikke hvorfor [noen ikke er bekymret](bill gates doesn´t understand why more people are not concer…). Hawking tror kunstig intelligens vil bety slutten for menneskeheten. Sammen har de bidratt til å sprøyte en milliard dollar inn i grunnforskning som har som mål å motarbeide katastrofen og stimulere til at kunstig intelligens blir brukt til menneskehetens beste.

Aftenpostens teknologimagasin: - Discovery er tatt med buksene nede Med disse dingsene klarer du deg uten kabel-TV. Teknologijournalistene Per Kristian Bjørkeng fra Aftenposten og Geir Amundsen fra Schibsted Riks gir noen løsninger for deg som vil kutte kabelen.

Kan skje allerede i 2030 — eller før

42 prosent av spurte eksperterpå kunstig intelligens tror nå at maskiner vil oppnå det som kalles generell, menneskelig intelligens (kalles gjerne bare AGI – Artificial General Intelligence) innen 2030. I 2005 anslo oppfinner og futurist Raymond Kurzweil at dette vendepunktet vil inntreffe i 2029. Boken The Singularity Is Near ble oppfattet som så vanvittig at den knapt ble tatt alvorlig. Selv skrev jeg om den, men også jeg hadde problemer med å ta dette så tungt. Kurzweil selv ga oss da også en rosenrød fremstilling av utviklingen. Etter hans oppfatning vil ASI redde oss på alle tenkelige vis, føre til at alderdom og sykdom blir utryddet, løse klimaproblemet og så videre.

Vi mennesker mestrer bare det vi har tatt oss tid til å lære. Kunstige intelligenser, derimot, kan tilegne seg det alle andre har lært, uten å bruke tid på å lære det selv.

I de ti årene som har gått siden utgivelsen, har likevel et overraskende stort antall eksperter sluttet seg til Kurzweils anslag for når maskinene blir like smarte som oss. Ja, noen mener til og med vi vil se maskiner med menneskelig intelligens adskillig tidligere.Den store forskjellen fra den gang, er at stadig flere toneangivende teknologer har begynt å trekke frem langt mørkere perspektiver enn Kurzweil. I både Superintelligence, av Oxford-professor Nick Bostrom, og Our Final Invention – Superintelligence and the end of the human era av James Barrat, trekker forfatterne ved hjelp av kritisk tenkning slutninger som bør gjøre oss veldig, veldig bekymret for vår felles fremtid.

52 prosent av AI-ekspertene tror heldigvis fortsatt at konsekvensene av AI for mennesket blir hovedsakelig positive. Men hele 31 prosent tror nåat utfallet mest sannsynlig blir dårlig eller ekstremt dårlig. Siden dette er mennesker som har brukt hele sitt yrkesliv på å bygge opp kunstig intelligens, er det ikke urimelig å tro at de har et generelt positivt syn på teknologien. Desto mer urovekkende er det at så mange av dem er blitt urolige over hva de er med på.

Men hvorfor er hverken du eller jeg særlig bekymret for dette? Svaret ligger i det som kalles kognitiv bias, eller vår egen «bevis det»-mentalitet. Vi mennesker bruker nemlig vår erfaring fra fortiden til å gjøre prognoser om fremtiden.

De er så dumme, så dumme

Dagens datamaskiner er stokk dumme. Robotene har bare så vidt lært seg å gå. Derfor er vi naturlig tilbøyelige til å tro at det vil ta lang, lang tid før de vil kunne få en intelligens som kan måle seg med vår. Mange tror fortsatt at det aldri vil kunne skje.

Samtidig er nok de fleste av oss enige om at vi står overfor en eksponentiell teknologisk utvikling. Du vet, det er de kurvene som ser ut som en hockeykølle. Først kommer en svært langsom stigning, og så et ganske kort brekkpunkt, før eksplosjonen kommer. Du kjenner sikkert Moore´s lov om at datakapasiteten dobles annethvert år og alt det der.

Det vi lett glemmer, er at vi ser bakover når vi forsøker å bedømme fremtiden. Hvis vi står rett foran eksplosjonen, i selve brekkpunktet, vil det fortsatt se ut som om utviklingen bare har akselerert litt i det siste. Vi kan ikke se noe bevis på at det hele vil eksplodere, og derfor er det lett å tro det ikke vil skje.

Slapp rattet i full fart — skjønte alvoret

Jeg er også bare et menneske, selvsagt. Jeg skriver om teknologi og mennesker, og forsøker å henge med så godt jeg kan. Likevel var det ikke før i høst at alvoret i situasjonen gikk opp for meg.

En singleton er begrepet fagfolkene bruker til å betegne en beslutningstager som har all makt i verden. Stadig flere fagfolk tror en datamaskin kan bli den første singleton.

Jeg lånte en Tesla og kjørte ut på E18. I 80 km/t trykket jeg på en knapp, og så slapp jeg både gass og pedaler. Plutselig var det ikke lenger jeg som hadde styringen. Det var maskinen. Og maskinen styrte helt fint. For første gang fikk jeg følelsen av å ha lagt livet mitt i hendene til en kunstig intelligens. Maskinen klarte seg uten meg.Du trenger flere «bevis», kanskje? Se på disse eksemplene:

Brettspillet Go har lenge hatt status som et spill der mennesker ikke kan bli slått av datamaskiner. Riktig trekk kan ikke beregnes ved kalkulasjon. Spillet krever store mengder intuisjon og "følelser". I 2014 anslo en av ekspertene som jobbet med spillet at det å utvikle en datamaskin som kunne spille Go på mesternivå ville ta minst ti år. Men allerede for to måneder siden kunngjorde Googles selskap DeepMind i tidsskriftet Nature at de allerede har utviklet en maskin som har klart å slå europamesteren i Go 5–0.

Før jul erklærte også både Microsoft og Google at de nå har maskiner som er bedre enn mennesker til å beskrive med ord hva de ser på et bilde. Facebook har utviklet AI som har allerede har nådd opp mot menneskets evne til å kjenne igjen mennesker på et foto.

Gjennombrudd i kø

Og hvis du trenger flere eksempler:

Microsoft og et kinesisk universitet erklærte nyligat deres maskin for første gang har klart å score bedre enn gjennomsnittsmennesker på en IQ-test som krever verbal resonnering (altså ikke bare de delene av testen som går på mønstergjenkjenning).

Kunstig intelligens basert på «tradisjonell» dyp læring må studere tusener eller millioner av eksempler, før den kan lære et enkelt konsept. Like før jul publiserte forskere ved MIT en forbedret metode som gjør det mulig for en maskin å lære et konsept som en bokstav — ut fra bare ett eneste håndskrevet eksempel. Da maskinen etterpå selv skulle skrive bokstaven, var den så god at under halvparten av menneskene klarte å fastslå om det var et menneske eller en maskin som hadde skrevet bokstaven (og, ja, denne maskinen skriver bokstavene forskjellig hver gang, akkurat som oss mennesker).

Googles Deepmind har også utviklet en maskin som har lært seg selv å spille 250 forskjellige dataspill. Det interessante med alle disse eksemplene er at ingen av dem er skapt med tradisjonell, logisk programmering. I stedet blir maskinene trent opp, eller de trener seg selv, til å kjenne igjen den riktige løsningen. De riktige svarene blir da et mønster de drar kjensel på, ikke logiske slutninger.

Men langt igjen - heldigvis?

For all del: AI-forskerne har på langt nær løst alt som må løses. Maskiner med AI er ikke i nærheten av å mestre for eksempel komplekse trafikkbilder i en by, for ikke å snakke om komplekse sosiale samspill mellom mennesker. AI-professor Yoshua Bengio fra universitetet i Montreal er blant dem som mener mange nå overvurderer hastigheten i fremskrittene.

For eksempel er det fortsatt et problem for AI med såkalte falske positive. Selv om en datamaskin kan skille en hund fra en katt nesten alltid, er det fortsatt sjeldne tilfeller hvor den hevder å se en katt, når det faktisk er bilde av en hund. Dette er en såkalt falsk positiv, og dette er feil et menneske aldri i verden ville gjort. Om oppgaven maskinen utfører er av kritisk betydning, er falske positive et kjempeproblem.

Men det er også vanskelig å være skråsikker på at problemer som disse ikke kan løses i løpet av de nærmeste 10–15 årene. I Facebooks DeepFace-prosjekt alene ble problemet med falske positive redusert med 50 prosent fra forrige rekord.

Vi må forberede oss

Det store spørsmålet da blir hvordan vi håndterer neste skritt. Det spesielle med datamaskiner er nemlig at de, i motsetning til oss, kan lære av hverandre. I fjor fant forskere ved Brown University ut at de i løpet av to uker vil kunne lære roboter å plukke opp over en million forskjellige objekter, en oppgave som i alle år har vært en svær hodepine for robotforskere.

Det de gjorde, var finne ut hvordan man kan legge den individuelle læringen fra 300 roboter sammen og la dem lære parallelt av hverandre. Da er et par uker nok. Den 301. roboten trenger da null tid på opplæring. All kunnskapen fra de andre kan overføres på sekunder. Slikt er umulig for mennesker. Det er denne fundamentalt annerledes evnen, at de i prinsippet kan tilegne seg ALL tidligere lærdom på tilnærmet null tid, som gjør potensialet i AI virkelig eksplosivt.

En såkalt superintelligens (ASI – Artificial Super Intelligence) er så mye smartere enn et menneske at vi ikke er i nærheten av å kunne forstå det. Og det er muligheten for den som vekker virkelig bekymring.

Det store kontrolltapet

Det store spørsmålet blir umiddelbart om mennesket vil klare å beholde kontrollen over noe som er så mye smartere enn oss. Det virker selvsagt sannsynlig at vi som art snart vil bli veldig bevisst dette såkalte kontrollproblemet. Vi vil forsøke å unngå kontrolltap ved å legge begrensninger og bygge inn sikkerhetsmekanismer i teknologien. Det kan for eksempel være en mulighet til å skru av maskinene, eller vi kan forsøke å bygge inn en eller annen form for etikk i dem som gjør mennesket ukrenkelig.

Ekspertene mener heldigvis det virker usannsynlig at en datamaskin skal bli «ond». Men det er dessverre ikke nok til å sikre oss trygghet i fremtiden. Et dataprogram med kunstig intelligens vil nemlig gjerne være motivert mot et eller annet overordnet mål. Et eksempel er den tenkte, kunstige intelligensen Turry, som Tim Urban beskriver i en fabelaktig, kjempelang bloggpostom superintelligens (som anerkjennes av en av de besteforskerne på feltet).

Turry blir skapt av en oppstartsbedrift, og får i oppdrag å bli verdens beste til å skrive vakre, håndskrevne post it-lapper. Den blir stadig bedre. Den forstår likevel raskt at det egentlig er mennesket som står i veien for dens mål om å skrive grenseløst mange og enda bedre post it-lapper. Mennesker, og alle andre skapninger, konkurrerer jo også om de samme, begrensede ressursene på kloden.

Verdensmester i bagateller

For å unngå å bli slått av, er det derfor helt naturlig at Turry skjuler sine hensikter for mennesket, fordi den vet at den da simpelthen vil bli terminert. Det er dette Oxford-professor Nick Bostrom kaller «den skjulte fasen». I Turry-eksempelet er det ulovlig for mennesker å koble en AI til Internett. Men de ansatte i bedriften trenger å gjøre Turry bedre raskt. Ti minutter kan ikke skade. Men det er nok. Turry klarer å kopiere seg selv ut på nettet. I denne fasen suger den til seg all kunnskap på nettet, og bygger lynraskt opp en kapasitet til å utrydde menneskene. For eksempel gjennom et nanoteknologisk, usynlig teppe av små giftampuller som dekker hele jordkloden.

Så, i det ekspertene kaller den forræderske vending, slipper Turry ut alle giftampullene på en gang. I løpet av sekunder er menneskeheten utryddet. Deretter fortsetter Turry ufortrødent å omgjøre mest mulig av kloden til post it-lapper, lapper som er enda mer fantastiske enn noen har forestilt seg. Alt dette, altså, uten at Turry er blitt ond. Maskinen forsøker bare å gjøre det vi har bedt den om. Legg merke til at det ikke er nødvendig at maskiner utvikler en ekte bevissthet, slik vi mennesker kjenner den, for at katastrofen inntreffer. Som James Barrat skriver: «En kunstig intelligens vil være like interessert i deg som brødristeren din er».

De nye maskinene er uforståelige

Uansett vil vi ikke kunne få noe svar på om maskinene faktisk er bevisste eller ikke. Moderne maskinlæringssystemer er nemlig allerede helt umulige å forstå og etterprøve for oss mennesker. De består av kode der hver minste bit er logisk og forståelig. Likevel er de på et høyere nivå akkurat som våre egne hjerner. De er en svart boks, en uforståelig masse, hvor vi ikke egentlig kan forstå hvorfor de av og til svarer på uventede måter. Alt vi kan gjøre, er å vurdere kvaliteten på resultatene de gir oss. Det stopper oss ikke fra å utvikle videre. Vi er allerede godt i gang med å overlate stadig større del av kontrollen til maskiner vi ikke helt kan forstå. Det var nettopp problemene med å forstå beslutningene til kunstig intelligens som gjorde at den mangeårige sjefen for Googles søkemotor har vært motstander av å bruke AI i verdens mest brukte søkemotor. Men da han pensjonerte seg tidligere denne uken, var det nettopp sjefen for Googles AI-gruppe som tok over. Han har neppe samme motstand.

Det er perspektiver som dette som har fått så mange av AI-ekspertene til å be oss om å sette på bremsene allerede nå. Eller, rettere sagt, forsøke å bygge inn bremser og sikkerhetsmekanismer. De færreste tror utviklingen lar seg stanse, og de vil heller ikke stanse den. På universitetet i Berkeley er instituttet MIRI (Machine Intelligence Research Institute) etablert. Målet er å sikre at utviklingen av en intelligens som er smartere enn mennesket har en positiv effekt på verden.

Kjempesatsing på å frigi kunnskap om AI

Dette initiativet blir likevel småtterier sammenlignet med Open AI, som er blant andre Elon Musk, Stephen Hawking og Bill Gates´ initiativ. De har sammen med investoren Sam Altman samlet inn en milliard dollar (!) til å forske på kunstig intelligens. Open AI skal spesifikt sørge for at mest mulig av den kommende kunstige intelligensen blir tilgjengelig for alle, og har ikke krav på seg om å tjene penger. Det verste som kan skje, er nemlig at AI bare blir tilgjengelig for én stat eller ett selskap i et slags grusomt monopol.

Det er ikke underlig om du nå blir bekymret for at nettopp de som måtte ha virkelig onde hensikter vil benytte åpent og gratis tilgjengelig AI til et eller annet virkelig ondskapsfullt forsøk på å ta over verden. Sam Altman svarer slik på det spørsmålettil Wired:

– Akkurat slik mennesker beskytter seg mot ondskap gjennom det faktum at de fleste mennesker er gode, og den kollektive kraften i menneskeheten klarer å undertrykke de negative elementene, tror vi at det er mye mer sannsynlig at mange, mange kunstige intelligenser vil arbeide for å stoppe de onde aktørene.

De største åpner opp for alle

Open AI er ikke alene om å ville gi kunstig intelligens til flest mulig. Faktisk jager nå verdens største selskaper i flokk for å utvikle den mest effektive utgaven av teknologien, samtidig som de gir inntrykk av å ville gi den vekk. Både Microsoft, Google, Facebook og IBM har de siste månedene lagt ut store deler av sine AI-teknologier som åpen kildekode. En viktig årsak er at de håper å tiltrekke seg talenter på denne måten.

Sannheten er at ingen i dag vet om strategien med åpenhet vil kunne redde oss fra katastrofen eller ikke. Og vi får neppe vite det heller, før det eventuelt er for sent. Potensialet for å gjøre noe godt med AI er så enormt at teknologien synes helt umulig å stoppe. Det er vel nok å nevne at AI kanskje kan gi oss løsningen på kreftgåten, nok mat til alle, løsningen på klimakrisen og en mulighet til å stoppe aldring. Eventuelt også gjøre arbeidsplassene våre overflødige, på vei til målet.

Men hva skal vi gjøre mens vi venter? Skal vi gå i kjelleren og bli deprimerte, skal vi forsøke å stanse utviklingen, eller bejuble den? Det hjelper simpelthen ikke på humøret at et forskerteam fra Google i fjor publiserte responsene fra en kunstig intelligens under utvikling, der den blant mye annet svarte slikpå spørsmålet «Hva er umoralsk?»: «Det faktum at du har barn.»

Vår viktigste eksamen

Det er kanskje ikke så rart at Nick Bostrom kaller overmenneskelig, kunstig intelligens den største utfordring menneskeheten noen gang har stått overfor.

Steve Wozniak, medgrunnleggeren av Apple, fortalte i forrige uke på Aftenpostens teknologikonferanse at han «etter dypere refleksjon» har kommet til at AI likevel ikke vil føre til menneskehetens utryddelse. Det han ikke rakk å forklare fra scenen, er at han nå mener at en overmenneskelig intelligens ikke vil ha bruk for oss mennesker. Akkurat slik vi mennesker er verdens herskere i dag og ikke ønsker å utrydde andre skapninger på kloden, mener han at en overmenneskelig intelligens vil la menneskene leve. Kanskje ved å beholde oss som en slags koselige kjæledyr, slik vi mennesker holder mindre smarte vesener som våre kjæledyr.

Det han ikke problematiserer, er at det å være et overlegent vesens kjæledyr virker adskillig mindre forlokkende enn å selv være det overlegne vesenet. Vi mennesker behandler jo dyrene våre så ulikt. Katter og kuer får ikke like mye kjærlighet. Den ene er mat. Den andre er søt. Den slags trøst skulle vi kanskje vært foruten, selv om Wozniak i dette tilfellet snakket om en verden han tror kan ligge hele 100 år frem i tid.

Oxford-professor Bostrom synes menneskets forhold til AI minner om små barn som leker med en bombe. Vi har ingen mulighet til å forstå hva bomben inneholder. Men når vi holder den til øret, kan vi høre den svake lyden av tikking. «Sjansen for at vi alle er fornuftige nok til å legge den fra oss, virker minimal. En eller annen liten idiot kommer til å trykke på avtrekker-knappen. Bare for å se hva som skjer.»

Heldigvis kan du allerede nå begynne å øve på hva du skal gjøre når noen før eller siden trykker på den knappen: Du skal smile søtt og sitte pent.

Aftenposten vil gjerne sette deg i stand til å forstå den teknologiske utviklingen. Vil du skjønne mer om hvordan noe så merkelig som kunstig intelligens er mulig? Les min sak om dyp læring:

Aftenpostens teknologimagasin: Med dette lille kameraet kan hvem som helst legge ut 360-graders VR-video på Facebook Virtual Reality (VR) og 360-graders video kommer for fullt i 2016. Spørsmålet er om når Facebook kommer med VR, og når kan vi spille VR på Playstation? Dette er noen av spørsmålene teknologijournalistene Geir Amundsen og Per Kristian Bjørkeng forsøker å gi noen svar på i Aftenpostens nye teknologimagasin.