LEF en moed

Maak bijsluiter bij AI‑apps in het onderwijs verplicht

AI inzetten om het nakijkwerk van universitaire of hogeschooldocenten over te nemen lijkt erg aantrekkelijk, maar we moeten de neveneffecten in kaart brengen voor we dit invoeren. Dat betoogt associate lector Izaak Dekker, die innovaties in het hoger onderwijs evalueert.
Iedere docent zal het herkennen: nakijken kost ongelooflijk veel tijd. Deze intensieve taak komt boven op de al hoge werkdruk. Dus wat doe je als je weer tegen een berg nakijkwerk aanhikt -wat vaak overwerken betekent- en je op social media een nieuwe AI-app ziet langskomen die dit snel kan oplossen? Er zijn Amerikaanse universiteiten die de diensten van deze apps inkopen, om de werkdruk van docenten te verlagen. En in China gebruikt een kwart van de scholen inmiddels AI om essays te beoordelen.
Ook in Nederland is de overtuiging dat als AI wordt ingezet voor nakijktaken, docenten meer tijd over houden voor onderzoek of lesvoorbereiding. Hoewel het op het eerste gezicht efficiënt lijkt, kunnen de bijwerkingen van AI-nakijkapps zomaar erger zijn dan de kwaal. Kunstmatige intelligentie gaat altijd gepaard met het risico dat de negatieve effecten pas in de praktijk zichtbaar worden.

AI-apps die op papier goed werken, kunnen in de praktijk dan ook heel anders uitpakken. Een voorbeeld is de ‘uitkomst’ die machine learning kan bieden voor complexer nakijkwerk. Als lesstof kristalhelder is over wat goed of fout is, worden toetsen en tentamens al geautomatiseerd in de vorm van multiple choice. Voor complexere vragen over de lesstof bestaat meestal geen consensus over een goed antwoord, waardoor automatiseren voorheen niet mogelijk was. Machine learning lijkt hier een handige shortcut te bieden: een tool berekent aan de hand van een grote database in hoeverre het stuk lijkt op eerdere succesvol beoordeelde stukken.
Black box
Dat scheelt misschien veel tijd, maar de prijs die je er als docent voor betaalt, is dat je niet langer weet waarom een student een 4 of een 9 heeft gekregen. Want hoe het algoritme uiteindelijk beslissingen afweegt, blijft een black box. En voor de student die over het cijfer in gesprek wil gaan, geldt dat deze ‘autoriteit’ in tegenstelling tot een docent niet transparant of aanspreekbaar is.
Geen slecht humeur
Natuurlijk hebben algoritmes ook voordelen ten opzichte van menselijke beoordelaars. Het kan dat ze minder bevooroordeeld zijn doordat ze de personen in kwestie niet kennen en ze zijn niet beïnvloedbaar door een goed of slecht humeur. Het zou best een meerwaarde kunnen zijn om een AI-app docenten te laten assisteren bij beoordelingen door vragen te stellen of checks te doen. Tegelijkertijd geldt hier dat wanneer je grote datasets gebruikt om met AI opdrachten na te kijken, het net zo goed kan gebeuren dat vooroordelen die in de datasets zitten, gekopieerd worden door het algoritme. Zo kan het dat een keuze voor een onderwerp of stelling voor een essay correleert met een hoger cijfer zonder dat dit de reden zou moeten zijn voor een hoger cijfer. Het is daarom van groot belang dat de instellingen, docenten en studenten beter zicht krijgen op de voorspelde en onverwachte effecten.
HET KAN DAT ZE MINDER BEVOOROORDEELD ZIJN DOORDAT ZE DE PERSONEN IN KWESTIE NIET KENNEN EN ZE ZIJN NIET BEÏNVLOEDBAAR DOOR EEN GOED OF SLECHT HUMEUR.
Bijsluiter nodig
We hebben een procedure nodig waarmee we AI-interventies eerst kleinschalig en dan grootschalig experimenteel onderzoeken, voordat publieke instellingen zoals scholen en universiteiten ze toepassen.

Net zoals het gangbaar is dat we medicijnen eerst testen en daarna pas gebruiken, moeten gebruikers van AI-oplossingen -inclusief docenten en kennisinstellingen- een vergelijkbare werkwijze eisen. En in een bijsluiter kunnen lezen over mogelijke neveneffecten.

Juist kennisinstellingen moeten dit in lijn met de medische procedures voorleven. Als ze dit niet doen, wennen ze aan tools die beloven het leven makkelijker te maken met AI zonder dat ze zich bewust zijn van de prijs.
De inhoud van dit artikel verscheen eerder op de website van ScienceGuide.