Publicatiedatum: 5 september 2024
AI helpt online gesprekken te verbeteren
Een goed gesprek voer je thuis of in de kroeg, maar niet zo gauw online. Dat komt bijvoorbeeld doordat mensen online niet altijd even goed naar elkaar luisteren en vooral hun eigen mening willen verkondigen. Cedric Waterschoot wil hier verandering in brengen met hulp van kunstmatige intelligentie. Hij ontwikkelde een computermodel dat constructieve bijdragen kan herkennen.
Door: Mathilde Jansen
Online discussies worden door veel mensen als toxisch ervaren. Het lijkt er inderdaad op dat online discussies eerder ontsporen dan ‘face-to-face’-gesprekken. Hoe dat nu precies komt wordt nog volop onderzocht, maar volgens promovendus Cedric Waterschoot is één van de oorzaken dat mensen online elkaars reacties heel slecht lezen. “Veel mensen willen online vooral hun mening verkondigen. Vaak zie je dat mensen dan wel op elkaar reageren, maar dat wil niet zeggen dat ze ook echt naar elkaar luisteren. Een zin als ‘ik snap wat je bedoelt’ kom je niet snel tegen.”
Waterschoot werkte voor zijn promotieonderzoek nauw samen met het online discussieplatform van nu.nl. Hij las duizenden reacties onder nieuwsartikelen, maar hij sprak ook regelmatig met de moderatoren van het nieuwsplatform, die in dienst zijn om de discussies in goede banen te leiden.
Automatische ondersteuning
Behalve het verwijderen van bijvoorbeeld discriminerende of beledigende reacties, houden deze moderatoren zich ook bezig met het ‘highlighten’ van reacties die een waardevolle bijdrage leveren aan de online discussie. Het computermodel dat Waterschoot ontwikkelde is bedoeld om dat proces automatisch te ondersteunen. “In eerste instantie was mijn computermodel gebaseerd op verschillende bouwsteentjes, waarbij het model bijvoorbeeld kijkt of er sprake is van interactie, goede argumentatie, en de afwezigheid van toxiciteit. Maar uiteindelijk bleek het veel beter te werken wanneer we het computermodel trainden op de berichten die handmatig gemodereerd waren. Op die manier kun je de complexiteit van constructiviteit beter ondervangen.”
Het computermodel dat Waterschoot op deze manier ontwikkelde doet een aanbeveling aan de moderator: hij legt tien reacties voor die hoog scoren op constructiviteit. Vervolgens heeft de moderator zelf nog de keuze welke reacties hij selecteert. Die menselijke component blijft belangrijk volgens de onderzoeker. “Wat constructief is, kan per context enorm verschillen. Stel dat een nieuwsartikel gaat over een bekend persoon die is overleden. In dat geval zijn persoonlijke verhalen die mensen delen heel waardevol, terwijl dat niet per se het geval is onder een artikel dat gaat over een nieuwe wetenschappelijke ontdekking. Dus constructiviteit is geen eenduidig concept.”
Menselijke fouten
Het computermodel is dus getraind op de moderatiekeuzes die menselijke moderatoren maken. Maar schuilt daarin geen gevaar? Mensen maken immers ook fouten, die dan overgenomen worden in het computermodel. Daar is Waterschoot zich sterk van bewust, daarom gebruikt hij de output van de computer ook om inzicht te krijgen in de manier waarop het menselijke proces werkt. Zo blijkt bijvoorbeeld dat moderatoren snel geneigd zijn om reacties van mensen die ze kennen sneller toe te laten. “Het is heel menselijk om in een situatie waarin je weinig tijd hebt, reacties door te laten van mensen die doorgaans goede reacties geven. Maar op die manier benadeel je mensen die minder vaak van zich laten horen. Ik werk nu toe naar een model dat evenveel waarde toekent aan reacties van mensen die minder prominent aanwezig zijn in de discussie, om die te stimuleren mee te doen.”
Juist omdat moderatoren onder grote tijdsdruk staan – binnen een uur komen er soms wel honderden reacties binnen – is het niet zo gek dat de keuzes die zij maken niet altijd inhoudelijk zijn. Ook de likes die lezers toekennen aan reacties blijken een rol te spelen. “Een moderator heeft ooit tegen mij gezegd: de comments met de meeste likes zijn de beste én de slechtste commentaren’. Een reactie als ‘hé jij propaganda-krant’ liken ook veel mensen, omdat ze het grappig vinden. Maar in principe kun je op basis van een paar simpele parameters – lengte van de reactie, aantal likes en eerdere reacties van dezelfde persoon – al heel goeie voorspellingen doen.” Met dit soort inzichten kunnen moderatoren hun eigen keuzes kritisch onder de loep nemen en waar nodig verbeteren.
Verbeterde discussies
Vooralsnog zal de moderatietool ook juist daarvoor gebruikt worden bij nu.nl: om inzicht te geven in het moderatieproces. “Dat is voor hen al heel waardevol. Bovendien is het een grote stap om een prototype zoals ik nu heb ontwikkeld praktisch te implementeren in zo’n groot bedrijf als nu.nl.” Waterschoot verwacht wel dat ze in de toekomst met dit soort automatische taalmodellen zullen gaan werken. Vooralsnog gebruiken online nieuwsplatforms AI nog vooral om toxische reacties weg te filteren. Maar in de toekomst zal AI volgens de onderzoeker ook zeker gebruikt gaan worden om discussies te verbeteren. “Uit een grootschalig onderzoek dat we deden onder een representatieve groep Nederlanders bleek dat de grootste groep niet wil deelnemen aan online discussies, omdat ze het nut er niet van inzien. Er valt dus nog veel te verbeteren aan online discussievoering.”
Wie is de trol?
Cedric Waterschoot ontwikkelt binnen het wetenschapscommunicatieproject Wie is de trol? bij het NWO-project BETTER-MODS een automatische moderatietool. Zijn promotieonderzoek sluit nauw aan bij dit project.