29. januar 2021 - Tech

Facebooks uafhængige kontrolinstans kræver mennesker bag maskinerne


Facebook Oversight Board (FOB), den uafhængige kontrolinstans med tidligere statsminister Helle Thorning Schmidt som medlem, uddeler i sin første rapport syngende lussinger til Facebooks filtrering af indhold. FOB underkender fire ud af fem sager og kræver bl.a., at Facebook etablerer en proces, hvor menneskelige skøn skal efterse de automatiserede modereringsmekanismer på platformen.

Tekst: Rasmus Lehmann Hylleberg


Hvis Mark Zuckerberg gik og håbede, at den nyoprettede uafhængige kontrolinstans, Facebook Oversight Board, ville anerkende platformens governance og procedure i forbindelse med modering af indhold, så kan han godt tro om igen.

I går landede det første sæt anbefalinger til Facebook fra gruppen af observatører, og de dumper Facebook i fire ud af fem stikprøver.

Facebook får bl.a. på puklen for at fjerne billeder af blottede bryster, da disse var en central del i en brasiliansk kampagne mod brystkræft, og som led i kampagnen er blottede bryster tilladt at vise, jf. Facebook egne regler.

En af de større hak i tuden kommer dog med kravet om, at Facebook indfører en proces, hvor menneskelige skøn skal følge i kølvandet på automatiseret moderering af indhold.

I forbindelse med coronapandemien og hjemsendte moderatorer har Facebook, ifølge det amerikanske netmedie lawfare.com, eksperimenteret med automatiseret moderation af indhold, hvor kunstig intelligens har skullet træffe afgørelser om potentiel fjernelse af skadeligt indhold.

Men det er en problematisk procedure, mener FOB, der kræver, at Facebook reetablerer de menneskelige skøn. For mens automatisering og teknologi er essentielt i forhold til at fange misinformation og skadeligt indhold, så er der behov for et fysisk og menneskeligt 'audit', så man sikrer, at det er det rette indhold, der får lov at blive, og det rette, der bliver fjernet. 

På den måde er det håbet fra FOB, at det bliver nemmere for brugerne at få prøvet en sag om forkert fjernelse af indhold, hvis der er et menneske bag beslutningen.

Observatører peger på, at kritikken af Facebook er opsigtsvækkende, da den i sin tone er så harsk, at det kan få store konsekvenser for platformens fremtidige moderering af indhold. For mens Facebook har benyttet sig bredt af fjernelse af indhold, peger anbefalingerne, ifølge ph.d. og lektor ved Harvard Law School Evelyn Douek, på, at Facebook i langt højere grad skal til at kigge på at mærke indholdet frem for at slette det. I et indlæg på lawfare.com skriver hun:

"Beslutningerne afspejler en generel skepsis over for fjernelser som en nødvendig eller effektiv løsning på mange af problemerne. I forbindelse med misinformation om corona var FOB ikke overbevist om, at sletning af indhold var det "mindst påtrængende middel til at beskytte folkesundheden" og anbefalede Facebook at overveje andre værktøjer, såsom markeringer og friktion."

Del denne artikel

Hold dig opdateret

Tilmeld dig K-News nyhedsmail og få information om nye podcasts, portrætter, videoer og meget mere.

Tilmeld nyhedsmail