Foto: Shutterstock

Nogle gange er det tydeligt. Når brugere på nettet leger med at sætte skuespilleren Nicolas Cages ansigt ind i en lang række film, hvor han ikke hører hjemme, så er det harmløs underholdning. Her er det relativt simpelt at se, at de levende billeder er manipuleret.

Andre gange er det stort set umuligt. F.eks. på hjemmesiden ThisPersonDoesNotExist.com, der ved hjælp af kunstig intelligens kan generere uendeligt mange ansigter, der ligner rigtige mennesker, som ikke findes. Her kan man ikke se forskel på, hvad der er hvad.

I begge tilfælde er der tale om en helt ny form for fake news. De såkaldte 'deepfakes' er en teknologi i rivende udvikling, og som snart kan gøre det noget nær umuligt at kende forskel på autentisk video og manipuleret video. Teknologien kan via kunstig intelligens manipulere levende billeder, som det for seeren ikke er muligt at afgøre, hvad der er rigtigt og forkert. F.eks. i denne video fra det amerikanske medie Bloomberg, der giver eksempler på, hvordan tidligere præsident Barack Obama og Vladimir Putin er blevet manipuleret ind i taler, som er skrevet af programmørerne bag. Det seneste års tid har der ligeledes været mange eksempler fra bl.a. USA, hvor kendte kvinder fik manipuleret deres ansigter ind i pornofilm, så det lignede, at det var den selvsamme kendis, der var aktiv i akten på den anden side af kameraet.

Umiddelbart kan teknologien virke harmløs. Men nedenunder opstår bekymringen om, hvordan teknologien kan risikere at undergrave borgernes demokratiske beslutningskompetence og retsstaten som institution.

 

Stiller nye krav til bevisførelsen

Riana Pfefferkorn, der er cybersikkerhedsekspert ved Stanford Law, beskriver i en Q&A med det amerikanske medie law.com, at der med deepfake følger en lang række af overvejelser, som dommere og advokater skal tage højde for, når de processere sager ved retterne. For hende handler det først og fremmest om autentifikation. 

"Hvordan kan jeg stole på, at den person, jeg tror, jeg snakker med over en f.eks. Messenger, faktisk er den person? Hvordan kan jeg stole på, at et stykke information, jeg henter fra en database, er korrekt, og ikke blev manipuleret med noget tidspunkt, før jeg tog det? Og hvilken slags bevis vil tilfredsstille mig, afhængigt af sammenhængen?", siger hun til law.com.

Ifølge Pfefferkorn kan deepfakes gøre det svært at blåstemple beviser i retssalene. I dansk sammenhæng er der i retsplejeloven ikke anført specifikke krav til kvaliteten af fremlagte beviser. I §339 står der at:

"Er en parts påstand eller hans anbringender eller hans udtalelser om sagen i øvrigt uklare eller ufuldstændige, kan retten søge dette afhjulpet ved spørgsmål til parten". 

En kommissionsbetænkning fra 1973, nr. 698 fra Retsplejerådet indikerer desuden, at:

"Det er utilfredsstillende, at retten skal være tvunget til at afgøre sager af vidtrækkende betydning for parterne ud fra bevisbyrderegler og derved måske nå frem til materielt urigtige resultater uden at have haft adgang til forinden at opfordre parterne til at bringe den bevismæssige uklarhed ud af verden." 

Hvis du er en M&A-advokat, der arbejder på at lukke en mulig aftale mellem din klient og et andet firma - hvis en falsk video, der synes at vise virksomhedens administrerende direktør ytre racistiske eller sexistiske bemærkninger eller angiver, at virksomhedens brand ikke performer så godt som annonceret, kan det påvirke din kundes beslutning om, hvorvidt man skal gå videre med aftalen

Og netop de manglende krav til autentifikation af beviser fremsat i retssalene er et problem mener Pfefferkorn.

"Når en video er blevet godkendt, og retten har accepteret det som bevis, er det juryens job at afgøre, hvor meget vægt beviset skal gives, og modstanderen kan lave argumenter for at forsøge at minimere vægten. Vi kan måske endda se en slags "omvendt CSI-effekt", hvor juryerne må forvente, at fortaleren af et stykke video- eller lydbevis bruger mange højteknologiske argumenter for at overbevise dem om, at det fremsatte bevis ikke er falsk", siger hun til law.com.

Ifølge Pfefferkorn er det ikke kun de gængse straffesager, der risikerer at blive påvirket af teknologien. 

"Hvis du er en M&A-advokat, der arbejder på at lukke en mulig aftale mellem din klient og et andet firma - hvis en falsk video, der synes at vise virksomhedens administrerende direktør ytre racistiske eller sexistiske bemærkninger eller angiver, at virksomhedens brand ikke performer så godt som annonceret, kan det påvirke din kundes beslutning om, hvorvidt man skal gå videre med aftalen. For virksomheder kan en vellykket udgivelse af en deepfake-video ødelægge mange forretningsmæssige forbindelser, tiltrække tilsynsmyndighedernes opmærksomhed, hindre investeringer og rekrutteringer og skabe vrede aktionærer."

 

Ulovlig gengivelse, men ofrene har ingen rettigheder

Sagen om de mange kendisser fra USA, der fik manipuleret deres ansigter ind i pornofilm, har også spredt sig til 'almindelige' mennesker. Teknologien bag deepfake skulle efter sigende være let tilgængelig, og ifølge det amerikanske medie Wired blev app'en FakeApp sidste år lanceret, hvor man nemt kunne lave denne form for manipulation.

Den lette adgang til teknologien bekymrer den amerikanske underviser Mary Anne Franks, der har været med til at skrive store dele af den amerikanske lovgivning, der kriminaliserer porno uden samtykke, det vi herhjemme kender som hævnporno. Men forudsætningen for den gældende lovgivning i USA er, at porno uden samtykke er en krænkelse af privatlivets fred. Face-swap-porno kan være dybt, personligt ydmygende for de mennesker, der er involveret i det, men det er teknisk set ikke et privatlivsproblem. Det skyldes, i modsætning til et nøgenfoto, der er hentet fra nettet, at denne slags materiale er falsk. Ifølge amerikansk lovgivning kan man ikke sagsøge nogen for at udstille de intime detaljer i dit liv, når det ikke er dit liv, de udsætter.

 

En trussel mod tilliden til demokratiet

Diskussionen om deepfakes rejser også en problematik i en lidt større skala. For hvad gør det ved borgernes og mediebrugernes tillid til demokratiet, hvis vi på nettet ikke kan stole på de videoer, der viser magthaverne udtale sig eller agere?

I en kronik i Information fra august 2018 påpeger filosof og konsulent ved Forsvarsakademiet Anders Theis Bollmann, at deepfakes kan risikere at rokke fundamentalt ved vores tillid til de systemer, som vi i vores dagligdag normalvis stoler på. For hvad sker der, hvis en manipuleret video viser en højtstående politiker indrømme f.eks. korruption lige inden et folketingsvalg?

"Det (hvis deepfake-teknologierne vinder indpas, red.) vil medføre, at de institutioner, hvis vigtigste funktion er at indsamle, forvalte og skabe så objektiv information som muligt (etablerede medier, universiteter, offentlige styrelser etc.), oftere vil komme til at lave fejl og lade misinformation slippe igennem. Det kan både betyde, at vores tillid til dem vil dale yderligere. Fejlene vil også kunne udnyttes til at så tvivl om institutionernes integritet", skriver han i kronikken.

Anders Theis Bollmann mener, at vi i langt højere grad skal tage truslen seriøst gennem digital dannelse. Men måske peger teknologien også på, at det juridiske system skal til at ruste sig mod manipulerede videoer.

Del

Videoer som bevis i retssale gengiver ikke blot virkeligheden, som vi ser den


Hold dig opdateret

Tilmeld dig K-News nyhedsmail og få information om nye podcasts, portrætter, videoer og meget mere.

Nyhedsmail. Ja tak