Deep Learning-teknologi gør det muligt at kortlægge hadefuld tale mod flygtninge på sociale medier

Ved brug af Deep Learning-teknologi har Associate Consultant i Delegate Frederik Gaasdal Jensen, sammen med sin specialemakker Henry Alexander Stoll, bygget et redskab til FN’s Flygtningeorganisation (UNHCR), som kan kortlægge nethad mod flygtninge.

”Fuck all refugees! Just let them drown.” og “Refugees are like rats. They must be killed.” er blot to eksempler på hadefuld tale mod flygtninge, der florerer på internettet. Sociale medier har sikret, at flere kan komme til orde i den offentlige debat, men de har samtidig også gjort det nemmere at gemme sig anonymt bag skærmen og skrive grusomme ting.

Hadefuld tale eller “hate speech” er offentlige udtalelser, som udbreder eller tilskynder til had, diskrimination eller fjendtlighed mod en bestemt gruppe og ofte en minoritet, og det er bevist at sådanne ytringer kan føre til fysisk vold ude i virkeligheden.

Det er derfor afgørende at opdage hadefulde ytringer på sociale medier for derved at kunne sætte aktivt ind i kampen mod had rettet mod bestemte grupper. Og det var netop dén udfordring, som 25-årige Frederik Gaasdal Jensen, Associate Consultant i Delegates Data & AI-team, og hans specialemakker Henry Alexander Stoll blev præsenteret for af FN’s Flygtningeorganisation, da de gik i gang med deres kandidatspeciale:

“I og med at vi begge to studerede Data Science, ville vi gerne arbejde med machine learning og natural language processing. Projektet gik kort sagt ud på, om vi kunne lave en model, der kan læse et tweet eller et tekststykke, og afgøre om det indeholder had rettet mod flygtninge,” fortæller Frederik og fortsætter: ”Hate speech som term er komplekst, fordi det er meget individuelt, hvad du og jeg vurderer er hadefuld tale. Dét jeg vurderer som hadefuldt, er måske ikke hadefuldt i din optik.”

Frederik Gaasdal Jensen
Associate Consultant, Delegate

Frederik og hans makker indsamlede derfor 12 datasæts, som var blevet lavet ud fra nogenlunde samme forståelse for, hvad begrebet “Hate Speech” dækker over. Disse datasæt blev derefter anvendt til at træne forskellige typer af BERT-modeller (Bidirectional Encoder Representations from Transformers), som skulle lære at gennemskue, hvornår et tweet eller tekststykke indeholder hate speech.

En udfordring, som man generelt ser hos machine modeller, er evnen til at forstå kontekst. Det betyder, at nogle modeller vil være tilbøjelige til at klassificere tekst som værende hadefuld på baggrund af enkelte hadefulde ord i en sætning:

”Vi som mennesker kan godt forstå konteksten af en joke, men det forstår en model ikke altid. På samme måde vil den have svært ved at forstå, hvis man på sociale medier for eksempel forsvarer flygtninge ved at skrive ”flygtninge er ikke dumme”. Derfor har vi gjort brug af såkaldte BERT-modeller, som er modeller, der er lavet til bedre at forstå kontekst i en tekst. Dermed er det ikke et enkelt ord, som afgør, om der er tale om “hate speech”, men det bliver vurderet i kontekst af de omkringliggende ord,” forklarer Frederik.

Formålet med den færdige model er ikke at markere og håndtere “hate speech” i enkeltopslag, men derimod at give en større indsigt i, hvordan stemningen omkring flygtninge mere generelt er på et givent tidspunkt. Dermed kan FN, og andre relevante instanser, monitorere og analysere udviklingen og tendenser indenfor hate speech i forbindelse med forskellige flygtningekriser for eksempel forårsaget af krigen i Ukraine eller Syrien. Her er det for eksempel interessant at kigge på, hvad de forskellige nabolande synes om modtagelsen af flygtninge. På baggrund af dette kan FN forme deres kommunikation derefter, så den hadefulde tale på nettet forhåbentlig ikke udvikler til fysisk vold i virkeligheden.

Arbejdet med specialeprojektet har givet Frederik et nyt blik på sin uddannelse og sit arbejdsliv:

”Det her med at kunne gøre en forskel, er jo ikke altid bare at kunne sende nogle penge eller arbejde frivilligt. Det er faktisk også sådan noget her. “Hate speech” kan faktisk føre til fysisk vold, derfor er det vigtigt at gøre noget ved det. At jeg kan bruge min uddannelse og viden til at skabe sådan et værktøj her, det er utrolig meningsfuldt.”

Specialet har fået titlen ”Detecting Social Media Hate Speech Surrounding Refugees using State-of-the-Art Deep Learning Methods”, og Frederik og Henry arbejder på at udgive det som en forskningsartikel.

da_DKDanish