05. januar 2021 - EU-lovgivning

Ny EU-aftale kan gøre Facebook mere magtfuld


EU-Kommissionen vedtog før jul den såkaldte Digital Service Act, der bl.a. forpligter techgiganterne til at skabe mere transparens om deres filtrering af indhold, ligesom intentionen er, at brugerne skal eksponeres for mindre ulovligt indhold. Men aftalen har en bagside, mener direktør hos Justitia, der frygter at den nye aftale kan give endnu mere magt til aktører som Facebook.

Tekst: Rasmus Lehmann Hylleberg. Foto: K-News


"EU-udspil om digitale tjenester vil styrke borgernes rettigheder".

Sådan lyder overskriften hos Institut for Menneskerettigheder, der i en nyhed på deres hjemmeside roser EU-Kommissionens nye Digital Service Act. Aftalen er led i kommissionens forsøg på at skabe konkrete rammevilkår for techgiganterne og på den måde forhindre spredning af hadsk tale, ulovlig adfærd og misinformation på platformene.

“Forslaget har mange gode elementer, der sigter mod at øge beskyttelsen af den enkelte borger. Det vil indføre særlige krav til techgiganterne, herunder krav om at dokumentere deres praksis og åbne sig for inspektion, etablering af tilsyn og revision samt klageadgang for borgere. Det er et forsøg på at bringe platformenes magt under demokratisk kontrol, og ligesom med databeskyttelsesforordningen går EU igen forrest,” udtaler seniorforsker Rikke Frank Jørgensen til instituttets hjemmeside og kalder aftalen for 'platformenes GDPR'.

Men mens aftalen har mange gode elementer, så er den et symptom på en centraliseringsproblematik, som kan risikere at indskrænke den demokratisk sikrede ytringsfrihed. Det mener Jacob Mchangama, der er direktør hos tænketanken Justitia. For selvom aftalen ikke blev lige så restriktiv, som man har set i nationale regelsæt i f.eks. Tyskland, så er vejen nu lagt til mere regulering i fremtiden, mener han. 

"Det her går ikke lige så langt, som man kunne have frygtet i forhold til tidligere udmeldinger. Tilbage i 2016 indgik man en frivillig aftale om fjernelse af hadefuld tale og i 2018 en aftale med techfirmaerne om bekæmpelse af misinformation. Men nu laver man altså retligt bindende regler, og det betyder, at hvis man i fremtiden vil fjerne forskellige typer af indhold, så har man nu et frame for det her. Så på den måde kan den potentielt udgøre en fare for ytringsfriheden," siger han til K-News.

 

Hvem bestemmer, hvad der er ulovligt?

Jacob Mchangama ser med bekymring på tendensen i Europa, hvor flere tiltag ved lov har skabt rammer, der tvinger techgiganterne til at fjerne indhold inden for en kort tidsperiode på 24 eller 48 timer. Det ses bl.a. i Tyskland med NetzDG-aftalen, hvor techgiganterne er forpligtet til at fjerne ulovligt indhold inden for 24 timer. Også TechDK-kommissionen har lignende anbefaling om 48 timer i en af deres delrapporter. 

Men disse sletningsfrister er problematiske, mener Jacob Mchangama. Han peger på, at Facebook alene i sidste kvartal fjernede 22,5 millioner stykker indhold fra platformen under betegnelsen ulovligt indhold. Og det er i sidste ende noget en domstol skal definere, mener han.

"Det siger sig selv, at når det drejer sig om hadsk tale og terrorindhold, så er det komplicerede spørgsmål, der skal vurderes i forhold til gældende ret. Så når domstolene skal bruge over et år på at definere, hvorvidt enkelte udtalelser er i strid med loven, så er det klart problematisk, hvis de sociale medier skal fjerne det på så kort tid uden domsprøvelse.

For det er jo problematisk at fjerne hadsk tale, som ikke er ulovligt. For så rammer vi jo ind i al muligt lovlig tale, og problemet er, at der ikke er bred enighed om, hvad hadsk tale er. Vores tidligere rapport viser, at 40 % af det, der blev fjernet, var helt almindelige politiske ytringer, og det var en meget lille del af det samlede indhold, der var ulvoligt. Så empirisk data viser jo, at det kun er en brøkdel, der reelt er ulovligt set med juridiske briller."

 

Transparens og Facebooks magt

Den nye aftale fra kommissionen har desuden til formål at skabe større transparens i forhold til, hvordan techgiganterne sletter indhold, og hvilket indhold der så slettes. Men det er et luftkastel, da disse mekanismer er fuldstændig uigennemsigtige, mener Jacob Mchangama.

"Vi har ikke noget indblik i, hvad kriterierne har været, så det skaber en kæmpe uigennemsigtighed. Og så har Facebook en kæmpe indflydelse på, hvor snittet ligger henne i offentlige debatter".

Han peger desuden på det problematiske ved, at platformene sletter indhold, der potentielt kan bruges som bevismateriale i efterforskningen af bl.a. politivold og terrorhandlinger.

"Det er helt klart en kæmpe udfordring, den her ide om at fjerne alt indhold i kølvandet på en tragedie. Et eksempel er skyderiet i Christchurch i New Zealand, hvor man bare ville fjerne alt – for det betyder, at du også fjerner videoer om krigsforbrydelser, politivold og lignende, som kan føre til, at man kan udpege de skyldige. Tænk, hvis bevisførelsen ikke var tilgængelig i sagen om George Floyds død. Man laver ikke bare balancegange i forhold til regulering på den ene side og ytringsfriheden på den anden på 24 eller 48 timer."

Men hvorfor er det ikke godt at fjerne hadsk tale, hvis man også samtidig fjerner det ulovlige? Jacob Mchangama peger på, at den øgede centralisering af regler omkring de store platforme kan give selvsamme platforme endnu mere magt.

"På sin vis kan man sige, sådan lidt kynisk, så er det jo en fordel for Facebook jo sværere regler, der kommer – hvis vi havde en god plan til en social medieplatform, der var mere ordentlig end Facebook, så ville vi jo ikke have midlerne til at ansætte moderatorer, som Facebook har, så det her kan være med til at manifestere og konsolidere Facebooks magt og position."

Del denne artikel

Hold dig opdateret

Tilmeld dig K-News nyhedsmail og få information om nye podcasts, portrætter, videoer og meget mere.

Tilmeld nyhedsmail