Skrevet af Rasmus Lehmann Hylleberg


"Oh yes sir - I can honestly say, I am a changed man."

Morgan Freemans personificering af livstidsfangen Red i Frank Darabonts filmklassiker Shawshank Redemption, der flere gange i løbet af sine 40 år lange livstidsdom skal stå skoleret for tilsynsmyndighederne for at overbevise dem om sin rehabilitering, er et tilbagevendende greb i den næsten to og en halv time lange film. 

Men tænk hvis en maskine ud fra data kunne forudsige, hvor tilbøjelig du som dømt ville være til at gå ud og begå kriminalitet igen?

Det var selvsagt ikke en mulighed i 1994, hvor Shawshank Redemption fik premiere. Og så var filmen nok ikke i samme omfang blevet den klassiker, som den er den er i dag.

Men muligheden for at lave forudsigelser i retssystemet er en af de mest populære værktøjer, som både politi og domstole flere steder i verden søger at løse gennem teknologi. Senest eksemplificeret ved Rigspolitiets indkøb og implementering af Polintel, der via indsamling af data flere forskellige databaser kan bruges til både opklaring af aktuelle og pejling mod potentielle kriminelle handlinger.

I 2011 blev der i den amerikanske stat Kentucky vedtaget en lov, der forpligtede alle statens dommere til at konsultere en algoritme, når de skulle vurdere, hvorvidt tiltalte skulle have mulighed for at betale sig ud af varetægtsfængsling gennem kaution. Metoden kaldes 'risk assesment', og går kort fortalt ud på, at algoritmen analysere og dermed giver de tiltalte en risikoscore, der skal være med til at definere, hvorvidt de er tilbøjelige til at gå ud og lave mere kriminalitet. 

Metoden havde oprindeligt til formål at hjælpe dommere til at træffe mere fair beslutninger og tilmed også skære i mængden af indsatte i de amerikanske fængsler, som fortsat er en voksende byrde for det amerikanske retssystem, der har 2.3 mio. mennesker siddende bag lås og slå. Men ifølge en ny rapport fra George Mason University, så har metoden ikke haft den ønskede effekt, da flere dommere har truffet beslutninger stik imod systemets anbefalinger.

 

Dommerne stoler ikke på systemet

Ifølge Prison Policy Initiative er mere end 60% af de 730.000 mennesker, som sidder i lokale fængsler, tilbageholdt i varetægt uden at være dømt. Og det betyder store udgifter for de amerikanske myndigheder, hvorfor algorimeassistancen var en kærkommen mulighed til at sende de tiltalte hjem, der scorede lavt i risikoanalyserne. 

Men rapporten viser, at i to tredjedele af sagerne valgte dommerne at overtrumfe algoritmens anbefalinger. Ironisk blev disse beslutninger tit truffet i hvide tiltaltes favør. En bias, som de automatiserede algoritmer ofte er blevet beskyldt for at indlejret i sig. Ifølge rapporten skyldes favoriseringen af hvide tiltalte, at dommerne havde en langt mere subjektiv vurdering af, hvordan de forskellige risiko scores skal fortolkes.

Rapporten er interessant, fordi den åbner en helt ny diskussion i relation til brug af algoritmer i retssystemet. For mens mængden og indholdet i den data, der puttes ind i maskinerne, ofte er centrale brikker i diskussionen, så viser rapporten, at det i lige så høj grad er relevant at arbejde med, hvordan fysiske dommere oversætter og forholder sig til den data og de anbefalinger, som de får fra algoritmerne. Det siger Harvard-professor Alex Albright Wired.com.

Del denne fra K-NEWS

Skal vi holde dig opdateret?

Få besked om nye artikler og podcast direkte i din mailboks ved at tilmelde dig herunder.

Vi indsamler ikke data om dig – og journalistikken, vi leverer, er gratis.

Nyhedsmail. Ja tak