Slimmer dan de robot

2021.02.25

Piek Vossen, Hoogleraar Computationele Lexicologie aan de VU Amsterdam.

Hoe kan kunstmatige intelligentie helpen om racisme, seksisme en andere online haat op social platforms als Facebook en Twitter verminderen? Piek Vossen, hoogleraar computationele lexicologie aan de VU in Amsterdam, legt uit hoe dit soort systemen werken.

Met het project Dynabench onderzoekt Facebook hoe makkelijk AI-systemen door mensen voor de gek gehouden kunnen worden. AI-onderzoekers van Facebook vragen mensen om tegen hun computer te schelden en een sarcastische toon tegen ze aan te slaan. Zo willen ze het systeem leren online haat beter te herkennen. Ook de startup Spectrum Labs heeft algoritmes gebouwd die gebruikt kunnen worden om online intimidatie, radicalisme en ander schadelijk gedrag te modereren. En Twitter maakte bekend dat het platform het volledige archief van publieke tweets aan onderzoekers beschikbaar stelt voor dataprojecten. Kunstmatige intelligentie kan uit haatberichten voorbeelden halen van wat voor soort toon en taalgebruik het platform beter kan vermijden.

Datasets

Voor dit soort onderzoeken is allereerst veel data nodig, vertelt Piek Vossen. “Mensen die meewerken aan het onderzoek, lezen posts op bijvoorbeeld Facebook en Twitter en behoordelen deze data. Bedrijven als Facebook, Google, Amazon en Facebook leggen enorme datasets aan om taal te analyseren. Bijvoorbeeld hoe vaak een woord voorkomt in een tekst, in de omgeving van andere woorden. Het analyseren van datasets vereist veel rekenkracht en apparatuur hiervoor wordt geleverd door bedrijven als NVIDIA en Huawei Technologies.

Toxic language

Met behulp van deze datasets kan het systeem leren of we te maken hebben met haat. De teksten worden gelabeld: dit is de categorie seksisme, dat is racisme, enzovoort. Zo leer je het systeem wat wel en wat geen ‘toxic language’, hatelijke taal, is. Dat is nog niet zo eenvoudig, want een woord dat in het ene geval hatelijk is, denk aan schelden met een ziekte, kan in het andere geval een serieus online gesprek zijn over iemand die echt ziek is. Het gaat bovendien niet alleen om woorden, maar ook om de hele zin en de dialoog.”

Subtiel intimideren

Bij een debat wordt het lastiger om haat te ontdekken, vertelt Vossen, omdat je te maken hebt met interactie. “Als iemand refereert aan iets wat eerder gezegd is, is dat ingewikkeld voor een systeem. Daarnaast is toxic language niet altijd expliciet. Je kunt ook heel subtiel intimideren, kwetsen of uitsluiten, zonder scheldwoorden te gebruiken. Mensen zijn het systeem altijd weer te slim af. En dan heb je nog te maken met de registers van de verschillende platforms. De dialogen die mensen op Facebook gebruiken, kun je niet altijd vergelijken met de gesprekken op Twitter.”

Interactie

Als platforms er veel tijd en geld aan zouden spenderen, kun je in een paar jaar behoorlijk wat data genereren. Het wordt dan mogelijk om op basis van een soort filter hatelijke taal uit gebruikte teksten te filteren, op vergelijkbare wijze als met een spamfilter. Toch denkt Vossen niet dat deze taal op online platforms te voorkomen is. “Je kunt een zeer sterk filter bouwen voor Facebook, maar als je dat doet, help je ook de applicatie om zeep. De omgeving is dan misschien heel veilig geworden, maar de interactie is stukgelopen. Uiteindelijk wint de mens het toch van het systeem. Beledigen, kwetsen en haatzaaien op internet is geen technisch, maar een sociaal probleem.”