Kultur

Apple skal skanne mobiler for overgrepsbilder. Eksperter frykter angrep på personvernet.

Teknologiselskapet Apple lanserer nytt system som skal kunne identifisere overgrepsbilder. – Kan bli misbrukt, sier Tjerand Silde, forsker på datasikkerhet ved NTNU. Han er en av flere sikkerhetseksperter som er bekymret.

Torsdag annonserte Apple en ny, kontroversiell programvare.
  • Jakob Semb Aasmundsen
    Jakob Semb Aasmundsen
    Journalist

Apples telefoner og nettbrett skal snart kunne søke etter bilder av overgrep mot barn. Det melder Financial Times torsdag.

Programvaren er kjent som «neuralMatch» og skal i første om gang kun bli installert på amerikanske enheter. Apple skal ha annonsert planene til et knippe amerikanske sikkerhetsforskere tidligere denne uken.

Apple har bekreftet planene i en offisiell uttalelse. Her sier de at den nye teknologien blir del av et nytt sikkerhetssystem som vil utvikle seg over tid.

Den første oppdateringen vil bli del av mobiloperativsystemet IOS 15, som lanseres allerede neste måned.

Hvorfor nå?

Den nye programvaren kommer i kjølvannet av en stor debatt i USA om hvordan teknologigigantene bedre kan beskytte barn mot overgrep og utnyttelse.

I fjor kom det amerikanske justisdepartementet med en oppfordring til teknologiselskaper om å utvikle systemer som kan identifisere ulovlig innhold, og rapportere det til myndighetene.

Flere selskaper har allerede iverksatt tiltak:

  • Microsoft lanserte photoDNA. Dette ønsker å hjelpe bedrifter å identifisere overgrepsbilder på nettet.
  • Facebook har introdusert flere tiltak, blant annet bedre måter å flagge overgrepsmateriale. Det skal hindre både søk og deling av slikt innhold.
  • Google har laget et program som bruker kunstig intelligens for å identifisere overgrepsmateriale, og som deler informasjonen med nettsider som Reddit og Tumblr.
Teknologiselskapet Microsoft har lenge jobbe aktivt med å motarbeide deling av overgrepsbilder. Her er Microsoft-grunnleggerne Melinda og Bill Gates under en FN-konferanse om barns rettigheter i 2015.

Hvordan vil det fungere?

Nå kommer altså Apple med sitt bidrag til kampen mot overgrepsmateriale.

Apple understreker at den nye programvaren neuralMatch samtidig vil beskytte personvernet til brukerne sine. Dette vil fungere på følgende måte:

  • Programvaren skal skanne brukernes bilder før de blir lagret i Icloud. Det er en tjeneste tilgjengelig på alle Apple-enheter som automatisk laster opp kopier av brukerens bilder på en privat nettsky.
  • Bildene som blir skannet, sammenlignes med en database av overgrepsbilder. Denne databasen er satt sammen av National Center for Missing and Exploited Children (NCMEC). Disse jobber tett med amerikansk politi om rapportering av overgrepsmateriale.
  • Om flere slike bilder blir oppdaget på en Apple-enhet, vil de manuelt bli gjennomgått. Om denne kontrollen bekrefter at det er overgrepsmateriale, blir det rapportert til NCMEC. Apple understreker at de da kun gir tilgang til de ulovlige bildene.

I tillegg til dette vil Apples nye mobiloperativsystem også sensurere bilder av seksuell art i meldingstjenesten Imessage. Apple har nå som mål å gjenkjenne seksuelle bilder og vise en sensurert utgave av bildene. Dette programmet er rettet mot barn.

Slik vil skanningen av overgrepsmateriale på Apple-enheter fungere.

Sikkerhetseksperter bekymret

Apples nye programvare har allerede møtt sterk kritikk fra flere hold.

«Det er en frastøtende idé», sier Ross Anderson, professor i sikkerhetsteknikk ved University of Cambridge, ifølge Financial Times. Han frykter at programvaren kan føre til overvåking.

Han får støtte fra sikkerhetsforsker og tidligere Facebook-ansatt Alec Muffet. På Twitter skriver han at dette er «stort tilbakeskritt for individuell personvern».

Også norske Tjerand Silde, forsker på datasikkerhet ved NTNU, er bekymret over den nye teknologien.

Overfor Aftenposten trekker han frem tre punkter han reagerer på.

  1. Kvaliteten av teknologien

– Jeg er skeptisk til om teknologien er god nok. Hvordan kan de garantere at de ikke får falske positive eller falske negative? Hvordan vet vi at det kun er overgrepsmateriale som blir skannet og overvåket?

2. Kan bli misbrukt

– Denne teknologien kan bli misbrukt til sensur og overvåking i autoritære regimer. Da kan man begynne å flagge innhold som omhandler andre ting. I Kina kunne man for eksempel sett for seg at alt som har med Hongkong å gjøre, blir flagget.

3. Dominoeffekt

– Dette kan åpne opp for større inngrep i personvernet på sikt. Denne gangen handler det om skanning av bilder, men neste gang kan det være for eksempel meldinger. Det kan føre til at personvernet vårt blir mer og mer begrenset og åpner for storskala overvåking og sensur av befolkningen.

Tjerand Silde forsker på datasikkerhet ved NTNU.

– Kan komme til Norge om kort tid

Mens programvaren i første om gang kun skal installeres på amerikanske Apple-enheter, frykter Silde at nordmenn snart kan bli rammet.

– Teknologien er der. Det er bare for Apple å trykke på en knapp, så kan de implantere den i flere andre land. Det kan komme til Norge om kort tid.

Silde peker på at det som skjer i USA, minner om utviklingene i Europa. EU ønsker å få bukt med nettkriminalitet, men løsningene de ser på, vil potensielt være en trussel mot individets rett til personvern.

– Hvorfor er dette noe vi bør frykte?

– Det er viktig for dem som bryr seg om privatliv og personvern. Det handler om at ikke selskaper eller myndigheter skal kunne sjekke hva du skriver, mener og gjør.

Han understreker at nordmenn fremdeles har en stor grad av personvern, og at det handler om å beskytte denne.

– Om vi ikke setter grenser, kan informasjon om helse, seksualitet, religion og andre private ting komme på avveie. Dette synes jeg vi skal passe oss for.

Les mer om

  1. Personvern
  2. Programvare
  3. Apple
  4. Financial Times
  5. Sikkerhetssystemer
  6. NTNU