10/08/2020 - Kunstig intelligens

De største trusler om kriminalitet begået med kunstig intelligens


Med inddragelse af eksperter fra flere myndigheder har University of London identificeret og ranglistet, hvordan kunstig intelligens kan bruges kriminelt de kommende 15 år. Falsk lyd og video, de såkaldte deepfakes, udpeges som en af de største trusler sammen med blandt andet omfattende phishing-angreb.

Tekst: Dan Poulsen


Billedforklaring: Uddrag af forsideillustration på policy briefing fra Dawes Centre for Future Crime på UCL.

Universitetsfolkene fra UCL, University of London Dawes Centre for Future Crime, har identificeret 20 kriminelle handlinger hvor AI, kunstig intelligens, og relaterede teknologier åbenlyst kan bruges. For derefter at fastslå, hvor alvorligt det er, og hvordan det ’alvorlige’ skal defineres, bad de eksperter fra politiet, universitetsverdenen, forsvarssektoren og regeringen - en gruppe 'delegates' på over tredive personer - om at inddele dem i ’high concern’, ’medium’ og ’ low’.

Følgende seks typer kriminalitet begået med hjælp fra kunstig intelligens bliver udpeget i kategorien 'høj bekymringsgrad':

  • Lyd- og billedefterligninger skabt af AI.
  • Førerløse køretøjer brugt som våben.
  • Skræddersyet phishing.
  • Angreb på andre AI-kontrollerede systemer.
  • Afpresning i store skalaer. 
  • Falske nyheder skabt af AI.

 

Fire kriterier fastslår alvoren

De forskellige kriminalitetsmuligheder blev vurderet ud fra fire kriterier som er skade, kriminel profit, opnåelighed – eller adgang til teknologien, og hvor svært det er at forhindre den pågældende trussel. Korte og præcise  uddybninger af de fire kriterier kan læses nederst på side et i den policy briefing, UCL har udgivet, og som der er link til her (klik blot på valgmuligheden nederst 'fortsæt til websitet', login ikke nødvendig, red.).

At et gammelkendt fænomen som phishing-mail figurerer som en af de store trusler, er i meget konkret grad et udtryk for det, der reelt er AI’s store force. Billigt, nemt, hurtigt. 

For med AI kan phishing-mails eksplodere i både antal og rafinering, da AI helt uden menneskelig indblanding tilretter sig enkelte personer og de enkelte målgrupper. Alt det, der i mange år har krævet et menneske i den anden ende til at skrive formuleringerne og tilrette logoer, så de ligner en rigtig bank, Nets- eller Danske Bank-logoer, kan gøres hurtigere, større og bedre ved hjælp af billig AI.

AI har – som Dawes Centre for Future Crime på UCL skriver – potentialet til at forbedre succesraterne i phishing-angreb ved at lave beskeder, der forekommer mere ægte end hidtil ved, at de automatisk kan opdage, hvad der virker ud fra små variationer i mails, og på den måde eksperimenterer og udvikler phishing sig i hidtil uset stor skala og stort set uden omkostninger.

 

Den anden af de to værste

Kigger man på antallet af gule alvorsmærker i UCL’s koncentrerede opgørelse – et uddrag af skemaet ses herunder - er det netop phishing-mails og AI-skabt lyd og video, der fra gruppen af eksperter har fået flest markeringer. Artiklen fortsætter efter billedet.

rank-efter-de-fire-kriterier

Billedforklaring: Udsnit af UCL-skemaet med 'high concern crimes'.

I den fyldigere version af researchen, som kan læses via dette link, noterer forfatterne, at der er nogle klare mønstre i de delegeredes rating af alvoren og årsagerne bag placeringen af deres 1-2-3 gule prikker.

De er særligt bekymrede for de skalérbare trusler. Forstået som det, der med relativ lettilgængelig teknologi kan ramme mange hurtigt og billigt.

Og det noteres i konklusionen at de delegeredes diskussioner, der foregik over to dage, tydeligt var formet af aktuelle og muligvis midlertidige begivenheder: Der blev - ikke overraskende - talt om indblanding i andre landes valghandlinger, spredning af misinformation, og den deraf følgende undergravning af vestlige liberale og demokratiske normer.

Den kontekst for udpegningen af de største trusler påpeges som muligvis forbigående over tid.

 

Det der allerede eksisterer

Der nævnes i UCL-studiet eksempler på, at falsk lyd og video kan bruges til at snyde sig til adgang til penge, og at kriminelle med falsk stemme eller videosamtaler kan skaffe sig adgang ind bag firmaers eller private sikkerhedssystemer. Og så er der selvfølgelig det med at få offentlige personer, politikere, skuespillere, myndighedspersoner til at opføre sig anderledes og sige andet, end de rigtige personer ville gøre, for at påvirke den offentlige mening og stemning omkring en person eller en sag.

Konkret findes der allerede eksempler på pengeafpresning i Mexico, hvor skuespillere foregiver at være den kidnappede. Flere af verdens bedste skuespillere kan allerede i dag se sig selv optræde i pornofilm, hvor deres ansigt med AI er sat ind i sexscener udført af mindre kendte personer.

Og eksemplerne på kendte, magtfulde ansigter, der siger noget besynderligt og endda direkte skadeligt og i modstrid med deres personlige motiver, findes også.

Herhjemme kunne man i DR-programmet So Ein Ding i 2018 se Lars Løkke give meget  besynderlige løfter til danskerne samt sige, at han ville gå til dronningen og trække sig som statsminister.

Sidste år i 2019 i England skabte den britiske organisation Future Advocacy en falsk video med Boris Johnson og Jeremy Corbyn, der siger usædvanlige og pæne ting om hinanden for at synliggøre de åbenlyse risici og muligheder, som AI-genereret, falsk video skaber.

I arbejdet fra UCL slås en anden interessant detalje også fast – det handler om den kontekst, AI's evner kan udfolde sig i. For på den ene side slår ekspertgruppen fast, at der er flere gode, veldokumenterede takter, der viser, at 'god' kunstig intelligens kan opdage falske ting lavet af anden 'ond' kunstig intelligens. Men på den anden side slår de fast, at det alligevel bliver svært at forhindre effekten af netop den type AI-genereret kriminalitet. For – som de skriver – der er mange ukontrollerede ruter, hvor falsk materiale kan sprede sig. Derfor får AI-kategorien 'Audio/visual impersonation' de maximale tre gule alvorsstjerner i kriteriet 'Difficulty of defeat'.

Under universitetetskategori 'Medium concern crimes' finder vi overskrifterne:

  • Misbrug af militære robotter.
  • Snake oil.
  • Forgiftning af data.
  • Cyberangreb trænet af AI
  • Angreb udført af autonome droner.
  • Angreb på personers online-liv.
  • Snyd med ansigtsgenkendelse.
  • Angreb på finansielle markeder.

Også dem såvel som de, der udpeges som 'low concern'-AI-kriminalitet, kan du læse uddybning af i deres policy briefing.

Del denne fra K-NEWS

Skal vi holde dig opdateret?

Få besked om nye artikler og podcast direkte i din mailboks ved at tilmelde dig herunder.

Vi indsamler ikke data om dig – og journalistikken, vi leverer, er gratis.

Nyhedsmail. Ja tak