Noe helt nytt er på gang innen datateknologi, og vi ser nyheter om denne teknologien nærmest daglig. Se bare på disse sakene fra det siste året:

  • Facebook M er en ny tjeneste under utprøving. Målet er å kunne hjelpe deg med omtrent hva som helst av forespørsler, som: Kan du pønske ut, kjøpe og levere en gave til en venn av meg? Hvor finner jeg nærmeste hundevennlige strand? Kan du skaffe meg en kontorplass for det nærmeste halvåret?
  • Konkurrentene Amazon, Google, Microsoft og Apple er nå alle sammen i gang med å utvikle virtuelle assistenter basert på kunstig intelligens og dyp læring. Amazons assistent Alexa kan allerede kjøpe og betale ting for deg – bare ved å lytte til hva du har å si (om du snakker engelsk).
  • Ved hjelp av en trådløs oppgradering kan bilen Tesla Model S nå plutselig kjøre seg selv på landeveien, uten at du har hverken hender på rattet eller føtter på pedalene. Bilen finner selv veien, også langs veier den aldri har kjørt før.
  • Facebook er blitt så god til å gjenkjenne folk at tjenesten automatisk kan tagge for deg hvem som er med i et bilde. Systemet er dyktigere til å gjenkjenne menneskeansikter enn mange mennesker er. Tjenesten er ikke tillatt i Norge – av personvernhensyn.
  • Toyota investerer én milliard dollar i et senter for kunstig intelligens i Silicon Valley.
  • Kurset Machine Learning er det absolutt mest populære kurset på Stanford University (også det i Silicon Valley), med 750 deltagere.
  • Datamaskiner har lært seg å beskrive hva som finnes på et bilde ved å formulere setninger om det de ser. Én av fire mennesker foretrekker nå beskrivelsen gjort av en datamaskin fremfor en som er gjort av mennesker.
  • Uten å ha noen kunnskaper om medisin, har dataingeniører nå laget systemer som er like gode som radiologer til å klassifisere ondartet kreft. I enkelte tilfeller er systemene nå bedre og har gitt legene ny kunnskap om hvordan en svulst ser ut.
  • Å plukke opp et objekt er en vanskelig oppgave for en robot. Derfor kan de ikke brukes til for eksempel enkle oppgaver som å plukke saker av helt ulik form på et lager. Men nå har forskere funnet ut hvordan de i løpet av 11 dager skal kunne lære en robot å gripe én million ulike objekter.
  • En oppstartsbedrift kalt Augury selger nå en app som skal kunne fortelle om det er noe galt med ventilasjonssystemet ditt – bare ved å lytte til lyden det avgir.
  • En datamaskin er nå bedre enn de fleste mennesker til å gjenkjenne objekter på bilder.
  • Den nyeste prototypen på flyvende leveringsdroner fra Amazon kan unngå hindringer i luften og på bakken på egen hånd – uten at noen trenger styre dem.
  • Teknologipionérer som Elon Musk, Stephen Hawking og Bill Gates har alle i det siste vært ute med klare advarsler om at kunstig intelligens kan vise seg å bli farligere enn atomvåpen, dersom menneskeheten ikke tar sine forholdsregler for å unngå ondskapsfull bruk.

Helt annerledes enn vanlig programmering

Alle disse voldsomme fremskrittene, og advarselen, bygger på en og samme teknologi: dyp læring, på engelsk deep learning. Vanlige dataprogrammer, som mange har lært å skrive enkle utgaver av på skolen, baserer seg på at du skriver instruksjoner som en datamaskin så skal utføre. Med en gang noe skjer som programmereren ikke forutså, kan datamaskinen ikke hjelpe deg.

Maskinlæring, derimot, brukes til å bygge opp de samme datamaskinene på måter som minner mye mer om vår hjerne. I stedet for å programmere disse maskinene, må de trenes . En datamaskin basert på dyp læring trenger i utgangspunktet ikke andre instruksjoner enn en hel masse data, for eksempel en video, og gjerne et menneske som gir beskjed om hva som var riktig og galt (noen maskinlæringssystemer klarer seg også uten menneskelig hjelp).

Du kan nå kjøre Tesla uten å holde i rattet. Og bilen kan lære å bli flinkere til å gjøre riktige veivalg.
TORGEIR STRANDBERG

Den nye selvkjørende funksjonen til Tesla er et eksempel. Da Aftenposten forsøkte å kjøre uten hender på rattet på E18, opplevde vi at det gikk helt fint – inntil bilen tok av fra veien på et sted den ikke skulle gjøre det. Om vi i stedet for å la den ta av, hadde gjort det de fleste vil gjøre, nemlig ta rattet og korrigere bilen inn på riktig vei da den gjorde en feil, ville bilen automatisk registrert dette og ikke gjort samme feil neste gang. Denne erfaringen kan overføres til alle andre Tesla-biler ved neste felles oppdatering.

Prestasjonen i været de siste årene

Tankegangen bak dyp læring har vært kjent i flere tiår, og dette er bare en del av et større felt som lenge har gått under navnet maskinlæring. Men da forskerne utviklet dyp læring for noen få år siden, ble effektiviteten dramatisk mye bedre. Tidligere måtte en ingeniør forsøke å beskrive for datamaskinen hva den skulle se etter for å gjenkjenne en lyd eller et ansikt på et bilde. Med dyp læring kan maskinene selv lære seg å gjenkjenne objekter uten at en ingeniør på forhånd har forsøkt å beskrive nøyaktig hva den skal se etter.

Det spesielle med moderne maskinlæringssystemer, sammenlignet med oss mennesker, er også at de er i stand til å ta opp i seg det andre lærer – uten at de selv trenger å bruke tid på læringen. Vi mennesker må lære alt selv. 300 roboter kan derimot i fellesskap lære å plukke opp én million forskjellige objekter på 11 dager. Når all kunnskapen blir lastet inn i alle robotene, har hver eneste av dem i praksis fått 300 ganger så mye erfaring – uten at hver og en trenger å bruke tid på å lære alt. Neste robot som blir produsert, kan til og med få overført all erfaringen på et øyeblikk. Uten å ha fått så mye som fem minutters trening.

Er bygget opp som vår hjerne

Teknologien er bygget opp av algoritmer og inneholder enheter som kalles nevroner. Det hele minner faktisk om hvordan vi mennesker lærer oss å abstrahere til stadig høyere nivåer, jo høyere kompetanse vi får. Når en datamaskin med dyp læring-nevroner skal lære seg å gjenkjenne et ansikt, kartlegger maskinen først bildet og ser etter kontraster. Så rykker den opp et nivå og forsøker å sette dem sammen til å bli linjer, som så igjen blir til pupiller og nesebor. På de neste nivåene settes bare stadig høyere abstraksjoner oppå hverandre.

Ikke spesielt innviklet

Til slutt settes symmetrien mellom ansiktsdelene sammen, helt til nettverket bare står igjen med den høyeste abstraksjonen: Et ansikt med identiteten til et helt spesifikt menneske. Med ni slike nivåer oppå hverandre og 120 millioner parametere har for eksempel forskere fra Facebook klart å få en maskin til å bli tilnærmet like dyktig som oss mennesker til å gjenkjenne menneskeansikter. Det er dette som er grunnen til at Facebook nå plutselig kan tagge hvem som helst i et bilde.

Ved hjelp av en app kan man «høre» om det er noe galt med teknisk utstyr.
JOEY COHEN/AUGURY

Det spesielle med dyp læring er at det ikke er spesielt innviklet å få til. De siste ukene har Facebook, IBM, Google og Microsoft lagt ut noen av sine mest avanserte algoritmer for dyp læring som åpen kildekode. Håpet er nemlig at de skal kunne stimulere studenter til å ta i bruk deres verktøy, studenter som i neste omgang kan komme til å søke jobb hos nettopp dem, fordi de allerede har opplæringen de trenger. Men enda viktigere er det at det er opplæringsdataene som er det sentrale, ikke selve datasystemet. For å skape dyp læring med høy pålitelighet, trengs enorme mengder data og datakraft. Om systemene forsøker å forstå hvordan et menneske ser ut ved å analysere for lite data, blir de ikke gode nok til å håndtere situasjoner de aldri har sett før.Det er derfor selskaper som Google og Facebook har et forsprang som er så vanskelig å ta igjen. De sitter på enorme berg av data om deg, og det er nettopp dataene om deg som trengs. Den som ikke har dataene, kan ikke lære om deg.

Litt mystisk grunnlag for svarene

Akkurat som med et menneske, er det ikke er så lett å finne ut nøyaktig hvorfor et dypt læringsnettverk gjør noe, enten svaret det gir er riktig eller galt. Årsaken til en beslutning er en slags sum av input fra milliarder av nevroner. Det er fullt mulig å evaluere resultatet og fortelle nettverket at dette ble feil, men nøyaktig hvorfor et spørsmål ble besvart galt, får selv ikke programmereren noe godt svar på. I stedet blir det gale svaret bare brukt til å trene systemet, slik at det forhåpentlig gir bedre svar neste gang. Poenget er at systemet kan bruke menneskets «fasit» til å bli bedre til å besvare neste spørsmål, selv om neste spørsmål aldri er blitt stilt før.

I kø for å lære

Programmerere over hele verden har det siste året kastet seg over dyp læring, fordi det faktisk er relativt enkelt å komme i gang med. Det er likevel ikke slik at datamaskiner på kort sikt kan lære seg å tenke som et menneske, eller bedre enn et menneske. Forskningspsykolog Gary Marcus sier det slik til Technology Review:

— Dyp læring er bare en del av den større utfordringen med å bygge intelligente maskiner. Slike maskiner mangler metoder å vise årsak og virkning på og har ingen opplagt måte å gjøre logiske slutninger på. De er også langt unna å integrere abstrakt kunnskap, som for eksempel informasjon om hva objekter er og hva de typisk kan brukes til.

Helge Langseth er professor i maskinlæring på NTNU (Norges teknisk-naturvitenskapelige universitet). Han har opplevd en voldsom oppblomstring i interessen for faget sitt den siste tiden, og forteller at dyp læring er det aller heteste på feltet nå.

— I årene fremover vil dyp læring helt sikkert bli stort, og vi vil se det brukt på mange fronter. Vi kommer til å se at maskiner basert på dette vil overta mange jobber som folk i dag gjør manuelt, sier han.

  • IBM Watson er blant teknologiene som har kommet aller lengst med dyp læring. Les vår sak om Watson her.Interessert i teknologiske nyvinninger? Da kan dette være noe for deg: