02/05/2024 - Magtens Tredeling #177

Autonome våben sender alle folkeretlige problematikker i spil


Tidligere i krige bidrog droner kun med overvågning, men i dag kan de både kaste våben og med kunstig intelligens i deres kamera beslutte om og mod hvem, der skal angribes. Og det rejser en hel række folkeretlige spørgsmål.

Chefen for Institut ved Militær Teknologi Iben Yde forklarer i seneste episode af K-NEWS faste podcast, hvilke principper og problematikker, der er i spil med de højteknologiske våben. Våben, der for nogens vedkommende, helt sikkert bruges i dag, mens andre formentlig bruges i de igangværende krige.

Tekst og foto: Dan Poulsen



Billedet: Iben Yde i sit hjem i Aarhus. 

 

Droner benyttes i kamp på et helt andet niveau i dag end for blot få år siden og krigene, vi har bevidnet de seneste to år, har konkretiseret langt de fleste folkeretlige problemstillinger.

”Vi har simpelthen set stort set alle problematikker i spil,” siger Iben Yde i seneste episode af Magtens Tredeling, den faste podcast om juraens verden som K-NEWS udgiver ugentligt.

Iben Yde er chef for Center for Operativ Folkeret ved Institut for Militær Teknologi ved Forsvarsakademiet og har siden færdiggørelse af jurastudiet stort set kun arbejdet i militære sammenhænge med blandt andet rådgivning om folkeretten i forbindelse med kamphandlinger. Hun er også en del af InterMil-forskningssamarbejdsprojektet, der blev igangsat på tværs af fakulteter og forsvarsinstitutioner som er en del af det stærkt økonomisk oprustende 2018-2023 forsvarsforlig. Intermil er forlænget til at fortsætte i 2024.

I forsvarsforligets tekst udpeges direkte højteknologisk krigsførelse som en del af projektets fokus. Og Iben Ydes ekspertise handler om autonome maskiner til vands, til lands eller i luften, og hun har fulgt den opgavevaretagelse, som har udviklet sig gevaldigt på få år.

Nogle vil sige, vi kan se det meget bedre, vi har øjne på målet. Andre vil sige, du kan ikke vurdere med dårligt kamera 20-30 meter op i luften om en person reelt er ukampdygtiggjort eller ej

Citat: Iben Yde, uddrag fra Magtens Tredeling #177.

 

Inden for sit område har hun i høj grad beskæftiget sig med det, hun i Magtens Tredeling kalder ”små hobbydroner”. Hun fortæller, hvordan hobbydronerne til at begynde med primært blev benyttet til at bidrage til overvågning. Fordi de er nemme at styre med en controller, der reelt kan være en smartphone eller lette at forprogrammere til bestemte ruter, udstyret med et kamera eller flere, der livesender video.

Men den primærfunktion har nu ændret sig så meget, at hun i Magtens Tredeling konkluderer:

”Det er ikke science fiction, det er nu, og det kommer til at fylde endnu mere.”

Sådan siger hun om den virkelighed på slagmarkerne i dag, med autonome maskiner, som vi, der ikke er på slagmarken, kun kender fra fiktionen. Altså hvis vi ser Terminator, Rumrejsen 2001, Robocop, Interstellar. Film, der viser os maskiner, der kan selv.

Film, der har gjort den største skade på Iben Ydes fagområde, som hun i øvrigt afslutter podcasten – og denne artikel - med at fortælle.

Siden hobbydronerne startede med at flyve og bare give overvågningsdata, er der udviklet metoder til at montere granater med en mekanisme, der kan slippe granater. Og granaterne kan enten slippes der, hvor den er fjernstyret til at gøre det, eller ved at den er programmeret til selv at vurdere hvornår og på hvem, granater skal kastes.

På tre kvarter forklarer Iben Yde, hvilke dilemmaer og uafklarede spørgsmål den våbenudvikling skaber med afsæt i folkeretten. Denne artikel opridser kun i korte udsnit, den forskning og virkelighed hun fortæller om i podcasten. Og vi vil selvfølgelig opfordre til at hele episoden lyttes. Du finder den i playeren i toppen af denne artikel eller i din foretrukne podcast-app på mobilen.

 

Intet menneske i beslutningsloopet

Iben Yde understreger at det: ”Er ret svært at vide” om de her droner, hun modtager rapporteringer om, er fjernstyrede, eller om de flyver selv.

”Men der er tilstrækkelig mange indikationer, rapporter der peger på, at […] man bruger dem også autonomt, det vil sige forprogrammerer dem til at tage ud og finde mål.” 

Og, som Iben Yde konkretiserer:

”Når vi taler fjernstyrede droner med mere, så sidder der en operatør som kigger gennem dronen på, hvad der sker, og træffer beslutningen om at smide granaten. Det autonome system har ikke det menneske inde i beslutningsloopet. Mennesket udfører programmeringen og bestemmer eventuelt på baggrund af GPS-koordinater eller andet, hvor er det bomben eller granaten skal smides. Det hele sker efter, at dronen ligesom er aktiveret, og der er ikke nødvendigvis noget menneske indblandet.”

Dermed er beslutninger, der kan handle om liv, lemmer og død overladt til maskinen selv og den mulighed sparker for alvor en hel række problemstillinger helt op til overfladen. Og det er spørgsmål som altså blandt andre InterMil i Danmark arbejder med, og som de i årevis har kunne se nærme sig.

”Problemet eller udfordringen, der er jo, at hvordan sikrer vi, at dronen smider granaten på et lovligt militært mål? Og hvis den så finder et lovligt militært mål, hvordan sikrer vi så, at der er proportionalitet i angrebet? Altså der ikke er 20 civile, der står lige ved siden af, som dør.”

Der er både overordnede og mere våbenspecifikke principper og reguleringer i spil – hvilket uddybes i podcasten. Lige konkret med droner, der kaster granater, ser Iben Yde uproblematisk på det overordnede princip om proportionalitet i handlingen, da skade som oftest er begrænset. Men hun ser store udfordringer i forhold til et af de andre.

”Så længe man bruger relativt små granater med relativt begrænsede sprængninger, så er proportionalitetsspørgsmålet ikke helt så vigtigt. Så for mig at se, er det er det først og fremmest det med at sikre sig, at dronerne smider deres granater på soldater eller på russiske kampvogne eller andre lovlige mål og ikke på civile.”

 

Grundighed og fart når beslutning om lovligt mål tages

Om et mål er lovligt, afgøres jo blandt andet af, om de udgør en trussel, altså er kampdygtige eller ej. Og en aktuel dronevideo sætter den problematik på spidsen og rejser en række af de helt afgørende og svære spørgsmål.

”Vi har faktisk for første gang - i hvert fald mig bekendt – dronefootage, altså optagelser, der viser en af de her droner, der hænger over soldater og smider granater, og dronen bliver hængende efterfølgende så man kan se impacten af det angreb, og man kan se at der stadigvæk er levende soldater på jorden. Og det rejser, udover selve det om det er soldater alle, er det ikke, nogle rigtig interessante spørgsmål i forhold til overgivelse og i forhold til, hvornår er en soldat ukampdygtig.

Fordi hvis man er ukampdygtiggjort, enten fordi man er tæt på at var død eller er alvorligt skadet og ikke kan fortsætte kampen, eller fordi man overgiver sig, så må man faktisk ikke angribe.”

Hvor godt beslutningsgrundlag en drone giver, er der forskellige meninger om.

”Nogle vil sige, vi kan se det meget bedre, fordi vi er der længere tid, vi har øjne på målet. Andre vil sige, du kan ikke vurdere med dårligt kamera 20-30 meter op i luften om en person reelt er ukampdygtiggjort eller ej. Så det rejser nogle rigtig interessante spørgsmål i forhold til når først vi har ramt en gang, eller når vi kigger på noget, hvor der er tvivl; er det nogen, der vil overgive sig, er det nogen, der vil kæmpe, hvad skal vi så gøre? Hvordan skal vi forholde os til det?

Ovenfor nævnte video er dokumentation for den nye virkelighed på en slagmark. Og det er en virkelighed, hvor det reelt er uklart om det er menneske eller maskine, der tager stilling til tvivlen og vælger, hvad der skal gøres. Men uanset om det er menneske eller maskine, der beslutter, så er billedmaterialet og dermed kameraet – og hvad det kamera med sin chip eventuelt kan løse af opgaver – helt afgørende.

Og uanset hvad, involverer det også det sværeste – nemlig at se, vurdere, genkende personer.

"Mennesker, som generelt er sværere at måle end objekter,” som Iben Yde også formulerer det.

 

AI, superkomplelse områder og ansigtsgenkendelse

Iben Yde fortæller i Magtens Tredeling om forskellige scenarier i de aktuelle krige, hvor droner enten med sikkerhed eller stor sandsynlighed bliver brugt. Slagmarkerne i Ukraine omtaler hun som relativt simple at anvende droner på, mens brugen af droner i et ”superkomplekst område” som for eksempel Gaza er en helt anden sag.

Om Gaza siger hun, at hun næsten ikke kan tænke sig til et sværere miljø at anvende autonome systemer i. Det skyldes, at det er et meget lille område med en stor koncentration af civile. Men det er også fordi, den ene part ikke kæmper efter krigens love om at være uniformerede.

”Hamas spiller ikke efter reglerne. Og det er altså ikke for at udpege Hamas – Israelerne gør i min optik også mange ting, der er tvivlsomme. Men Hamas er ikke en regulær statslig væbnet styrke, det er guerillakrig, de fører, rigtig langt henad vejen. Det vil sige, de lever ikke op til den humanitære folkeretskrav om, at man skal bære uniform, og man skal have tydelige mærker, der gør, at man kan adskille dem fra civilbefolkningen.”

”Så er det endnu sværere og bruge for eksempel sådan nogle droner her, fordi det godt kan være, at du kan lære dem at finde en kampvogn med relativt stor sikkerhed i det her område. Men du kan ikke lære dem at forstå, hvad forskellen er på en kombattant eller en civil, fordi der er ikke de der tydelige skillelinjer,” fortsætter hun:

En naturlig forlængelse af ovenstående konstatering er, om autonome våben i dag reelt kan vælge deres mål ud fra ansigtsgenkendelse. Det bliver af Iben Yde fastslået som en ikke eksisterende mulighed. Til den slags autonomi er der ganske enkelt for mange fejlkilder, for meget data, der skal gennemtygges med en langt højere grad af sikkerhed for resultatet, end det er tilfældet i dag. Og så er der tidsfaktoren.

Det er ikke science fiction, det er nu [...] Vi har simpelthen set stort set alle problematikker i spil

Iben Yde om de spørgmål, de sidste års krige og udviklingen inden for og brugen af, droner og kunstig intelligens rejser.

 

Tidsfaktoren spiller en væsentlig rolle i argumentationen for, når den enkelte situation skal vurderes som værende i overensstemmelse med folkeretten eller ej. Der er for eksempel, som det også forklares i podcasten, stor forskel på, hvad der kan stilles af krav til tid og grundighed i forhold til om kunstig intelligens benyttes i en kamphandling eller i forberedelse af en kamphandling.

Denne kontekst og skelnen mellem forskellige scenarier og hvilken tid eller grundighed folkreretten kræver, bliver relevant da der i podcasten tales om den AI som den israelske hær har benyttet. De har systemet Lavender, som det britiske dagblad The Guardian har skrevet om.

Det er i en artikel 3.april, at The Guardian skriver, at den israelske har benyttet sig af en ”AI-powered database that at one stage identified 37,000 potential targets based on their apparent links to Hamas”.

Den Israelske hær giver i samme avis et længere svar, der indledes således:

“Some of the claims portrayed in your questions are baseless in fact, while others reflect a flawed understanding of IDF directives and international law.”

Begge The Guardian-artikler, links indsat ovenfor, er interessant læsning.  Og hvad Iben Yde siger om brugen af Lavender, kan du høre 25 minutter inde i episode 177 af Magtens Tredeling med titlen: ”Droner og AI i krig med folkeretten”.

Hun afslutter i øvrigt interviewet med at henvise til film og fiktionsuniverset, hun selv tidligere i podcasten har bragt på bane. Og hun siger, at særligt Terminator filmene, er noget af det, der har gjort stor skade på hendes fagområde og vores kollektive snak om kunstig intelligens og autonome robotter.

Ingen ønsker menneskelignende robotter, der bare går rundt og dræber på må og få, fastslår hun.

”Alle stater vil have våbensystemer, som de kan kontrollere, selv om de er autonome, og selv om de bruger kunstig intelligens.”

Iben Yde afrunder podcasten med igen at nævne film, da fiktion reelt er et område, der bliver taget særdeles alvorligt i militære kredse.

”Og hvis jeg må sige en allersidste ting, så er der en merging trend indenfor militærvidenskab, som bruger film om kunstig intelligens og andre teknologier til at lave det, der hedder strategic foresight. Så de bruger simpelthen det, der sker i fiktionen til at bygge scenarier, som kan være det, vi ser materialisere sig i virkeligheden”.

Iben Yde-artikel

 

Del denne fra K-NEWS

Skal vi holde dig opdateret?

Få besked om nye artikler og podcast direkte i din mailboks ved at tilmelde dig herunder.

Vi indsamler ikke data om dig – og journalistikken, vi leverer, er gratis.

Nyhedsmail. Ja tak