Icoon van impact

45.000 AI‑ready HvA studenten

Doordat AI tot op zekere hoogte ‘cognitieve taken’ zoals analyse van beelden en teksten en het genereren van content kan overnemen, zal het heel veel beroepen veranderen. Zijn we er als mens eigenlijk klaar voor om daarmee om te gaan? En wat moet je dan precies kunnen? Jochem Kootstra en Pascal Wiggers schetsen het profiel van de AI-ready mens. En hoe de HvA haar studenten voorbereidt op een nieuwe rol.

Wie de beperkingen doorziet kan met AI nuttige, interessante en creatieve dingen doen

Over Pascal Wiggers

Als Associate Lector Responsible AI bij de HvA doorgrondt Pascal Wiggers de ethische en maatschappelijke impact van AI vanuit de techniek. Hij studeerde informatica en kunstmatige intelligentie en is gepromoveerd op spraakherkenning door middel van een computer. Hij maakte de overstap naar het hbo om in de praktijk te kunnen onderzoeken hoe je de waarden van mensen kunt meenemen bij het ontwikkelen van technologie. Aan Pascal de vraag om een profiel te schetsen van een AI-ready mens.
AI is technologie zonder bewustzijn
Welke vaardigheden de mens nodig heeft om AI verantwoord aan te sturen? Dat is volgens Pascal Wiggers een vraag die moeilijk te beantwoorden is. Het belangrijkste is dat de mens doorheeft waar hij nou eigenlijk mee te maken heeft en over de eerste verbazing en fascinatie heen komt. Het probleem zit ‘m al in de naam. Pascal legt uit dat we helemaal niet te maken hebben met intelligentie, maar met een domme computer die iets kan dat enigszins lijkt op wat wij doen. “Ik vind dat we als mens AI-wijsheid moeten hebben: snappen hoe het werkt, onthouden dat het onbetrouwbaar is en dat je soms een verkeerd antwoord krijgt. AI snapt zelf niet wat het doet, het is een patroonherkenner die in uitzonderingssituaties helemaal niet goed presteert. Daarmee is de inzet van AI voor bijvoorbeeld fraudedetectie een slecht idee, want er zijn allerlei uitzonderingsgevallen waarbij de mens de reden ziet waarom iets gebeurt, die een AI niet kan zien. Misschien zou AI geen antwoorden moeten geven, maar vragen moeten stellen. Als je de beperkingen doorziet, kun je met AI nuttige, interessante en creatieve dingen doen.”
De impact van AI vraagt erom goed na te denken over verantwoorde toepassing
Omdat de impact van het fenomeen AI gigantisch is, vindt Pascal het als ontwikkeling belangrijk genoeg voor de HvA om er een Centre of Expertise Applied AI en een lab Responsible AI aan te wijden. “Het kruipt gezien en ongezien in allerlei hoeken en gaatjes. ChatGPT is het meest zichtbare voorbeeld. Reken maar dat heel veel studenten, scholieren en ook docenten en eigenlijk allerlei mensen dat gebruiken. Je kunt AI overal en nergens inzetten. Sociale mediaplatformen gebruiken AI om te bepalen welke content ze jou aanbieden. In de logistieke sector kun je met AI berekenen hoe je efficiënter vervoert en zo kosten en CO2-uitstoot reduceren. Mooi, maar tegelijkertijd kleven er fundamentele ethische bezwaren aan AI. Die zitten echt in de technologie ingebakken, omdat deze op basis van data werkt die altijd een bepaalde cultuur weerspiegelt.”
De AI‑ready mens beschouwt AI als een onbetrouwbare technologie
Het gaat om je grondhouding ten opzichte van AI, vindt Pascal: “Het is een hele bruikbare, maar ook onbetrouwbare technologie. In die zin dat het soms fouten maakt, bevooroordeeld kan zijn en dat onduidelijk is hoe het tot conclusies komt. De AI-ready mens moet het daarom ook als zodanig beschouwen. De context waarvoor je een AI-toepassing bouwt of gebruikt is bepalend voor hoe je met die onbetrouwbaarheid om moet gaan. We hebben bijvoorbeeld onderzoek gedaan naar AI in recruitment en aan bedrijven gevraagd wanneer recruitment in hun ogen eerlijk is. Dan werd het eerst even stil en daarna kwamen er allemaal verschillende antwoorden. Als je van tevoren geen antwoord hebt op zo’n vraag, dan weet je ook niet of je AI eerlijk is. Pas als je eerst bepaalt wat je wil, kun je meten of de technologie dat ook doet en deze verantwoord ontwikkelen.”
Door naar AI te kijken zie je hoe bijzonder de mens is
Omdat AI allerlei taken van ons over kan nemen, maar geen geweten, gevoel of inschattingsvermogen heeft, zou de AI-ready mens zich misschien juist wel bewuster moeten zijn van alle dingen die wij als mens kunnen, die een algoritme waarschijnlijk nooit gaat leren. Pascal: “Een algoritme neemt de wereld niet waar zoals wij. Voor ons is alles wat we zien betekenisvol. Een gezichtsuitdrukking betekent iets voor ons. Een AI ziet een tafel, maar een mens ziet de tafel waar de kinderen een kras in hebben gemaakt en waar dat leuke feestje aan werd gevierd. Daar zit veel meer waarde in dan AI kan registreren. Wat AI kan is dus een hele zwakke afspiegeling van wat wij kunnen en het heeft er ook nog een enorme rekenkracht voor nodig. Die koppies van ons kunnen dat veel beter en sneller met minimale energie. Dus eigenlijk zijn wij interessanter om naar te kijken. Als je je afvraagt wat wij hebben dat AI niet heeft, kun je ook beter inschatten wat toch maar een stom taakje is dat we net zo goed aan AI kunnen uitbesteden en welke zaken we te betekenisvol vinden om aan een AI over te laten.”
De AI‑natives komen eraan
Er zijn volgens Pascal meerdere versies van de AI-ready mens. Aan de ene kant heb je de makers die moeten nadenken hoe je een machine zo eerlijk mogelijk bouwt en aan de andere kant heb je de gebruikers die vooral kritisch vermogen moeten ontwikkelen om output te kunnen beoordelen en in te schatten waar je het voor inzet. Daarnaast ziet hij nog een derde categorie van bijzondere AI-ready personen. Kritische waarnemers, zoals onderzoeksjournalisten, die in ontwikkelingen duiken en aan de bel kunnen trekken. “Veel AI-ontwikkeling gebeurt achter de schermen en zonder dat je het doorhebt, gebruik je het voortdurend. Bijvoorbeeld wanneer je telefoon drie foto's maakt en combineert tot één beeld dat er in werkelijkheid nooit is geweest. Maar ik geloof dat er een generatie AI-natives aankomt, die zich bewust is van de situatie waar we in zitten en ziet dat technologie dingen kan die ze tot voor kort zelf op school moesten leren. Wij willen ze nu al leren om kritisch met AI om te kunnen gaan. Zodat ze het in kunnen zetten in hun toekomstige werk, bijvoorbeeld door in het geval van taalmodellen goed te leren prompten. Daarnaast wil je ze bijbrengen na te blijven denken over de reden om AI in te zetten en wat je er dan wel en niet van kan verwachten.”
Kritisch opgeleide studenten kunnen impact groter maken
AI kan helpen inspireren, brainstormen en bijdragen aan oplossingen, maar het moet van de mensen komen die met AI werken en niet van de technologie: ”Je kan er een efficiencyslag mee maken, maar dat is nog iets anders dan het klimaatprobleem even oplossen met behulp van AI. In de gezondheidszorg kan AI op een scan bijvoorbeeld tumoren zien waar een arts overheen kijkt, maar die arts ziet weer andere dingen. AI is niet beter dan de arts, het is beter in een heel specifiek onderdeel dat een arts zal meenemen in zijn overweging. Zo gaan in veel industrieën dingen veranderen. En als onze kritisch opgeleide studenten goed nadenken wat een zinloze of juist nuttige bijdrage is, wordt de impact groter.”
De AI‑ready mens moet een ethische discussie kunnen voeren
Samengevat weet de AI-ready mens in grote lijnen hoe AI in elkaar zit, wat het wel en niet kan en wat er achter de schermen gebeurt. Met besef van de cloud en de datacenters die heel veel energie en water verbruiken. En dat AI-tools natuurlijk niet gratis kunnen zijn als ze zoveel geld en energie kosten. De AI-ready mens is niet iemand die een theoretisch college ethiek en AI heeft gehad, maar die er met hands-on ervaring gevoel voor heeft ontwikkeld. Afhankelijk van de rol is de AI-ready mens in staat AI eerlijk te bouwen, output kritisch te beoordelen en ontwikkelingen objectief te bevragen. Het punt is dat je erover moet praten om dat kritisch vermogen te ontwikkelen. Dan is, gegeven wat AI kan, de vraag die we ons ook moeten stellen: wie zijn wij nu eigenlijk en wat vinden we écht belangrijk? Wat moet van ons blijven?
“Ik vind het fascinerend om te zien dat een computer dingen kan waarvan wij altijd dachten dat er intelligentie voor nodig was. Ik weet exact wat die computer doet en nog is het betoverend om te zien dat uit ChatGPT een antwoord rolt dat ook nog ergens op slaat. Tegelijkertijd kijkt mijn meer filosofisch-ethische kant er met enige huivering naar, want wat als die AI jou een verkeerd antwoord geeft? Informatie en desinformatie lopen volledig door elkaar, want het model kan simpelweg niet vaststellen of wat het zegt waar is of niet. Omdat bijvoorbeeld ChatGPT in zo’n gesprek met redelijk veel zelfvertrouwen zijn antwoorden produceert, lijkt het veel betrouwbaarder dan het in werkelijkheid is. Volgens mij is de AI-ready mens iemand die daar doorheen kan kijken.”

De HvA wil elke student AI‑ready opleiden omdat AI ieder werkveld gaat veranderen

Over Jochem Kootstra

Jochem Kootstra is HvA-docent sociaal-ethische kwesties rondom innovatieve technologieën en de platformsamenleving bij Communicatie en Creative Business. Daarnaast is hij onderzoeker bij het project AI4Students van het HvA Centre of Expertise Applied AI, dat zich in co-creatie met docenten en studenten richt op het AI-ready opleiden van studenten. Aan hem de vraag hoe 45.000 AI-ready studenten eruitzien?
Van verwachte impact naar AI‑ready vaardigheden
Het project AI4Students onderzoekt de verwachte impact van AI-ontwikkelingen, tools en toepassingen binnen een bepaald werkveld. Wordt het al gebruikt of alleen nog experimenteel? Welke toekomst met AI is in dat werkveld wenselijk en wat voor kennis, vaardigheden en houding hebben studenten nodig om die gewenste toekomst te realiseren? Vervolgens wordt gekeken hoe het curriculum van een opleiding op basis van de resultaten kan worden aangepast. Jochem Kootstra: “Binnen AI4Students focussen we ons vooral op opleidingen die niet ICT-gericht zijn. We willen elke student AI-ready opleiden, omdat AI elk werkveld absoluut gaat veranderen. De belangrijkste vragen gaan over het exacte doel van een AI-systeem; wie er profijt van heeft, de toegevoegde waarde en welke werktaken- of processen het bevordert, maar ook wat onverwachte of ongewenste uitkomsten op korte en lange termijn kunnen zijn. Die sociaal-ethische kwesties komen binnen iedere opleiding en co-creatie aan bod en zijn onderdeel van de algemene vaardigheden van de AI-ready student.”
Jochem legt uit hoe in de co-creaties vier categorieën worden uitgediept: data, algoritme, gesprekspartner en technologie. “We kijken of het binnen het werkveld van de student nodig is om data te kunnen verzamelen, of dat deze het moet kunnen gebruiken en zelfs analyseren? Dat soort niveauverschillen speelt ook in de categorie algoritmes: moet de student een tool kunnen kiezen of uitkomsten duiden en toepassen? In de gesprekspartnercategorie achterhalen we of iemand het debat moet kunnen voeren met een gebruiker, of op het hoogste niveau een AI-expert kunnen aansturen binnen zijn of haar werkveld? In de categorie technologie verschillen de niveaus van het volgen van de AI-ontwikkelingen tot AI ethisch kunnen duiden of zelf AI-technologie beheersen. Wat belangrijk is wisselt per werkveld en opleiding.”
JE KAN PAS GOEDE PROMPTS SCHRIJVEN ALS JE WEET WAAR JE NAAR MOET VRAGEN EN DAT KAN ALLEEN ALS JE AL KENNIS OVER HET ONDERWERP HEBT.
Een onderzoekende houding als basis
Volgens Jochem is het belangrijk dat studenten leren nadenken over wat ze met AI winnen of verliezen en controleren of resultaten die AI-systemen geven ook correct zijn. Jochem: “AI zorgt voor snelheid en een mate van efficiëntie, maar we moeten waken voor gemakzucht of zelfs luiheid.” Hij ziet dat mensen minder willen investeren in uitzoekwerk en onderzoek doen.“Ik zie terug in studentenstukken, van verslagen tot zelfs e-mails, dat veel studenten de output van ChatGPT voor lief nemen en letterlijk kopiëren en plakken. Ik denk dat de meeste studenten onvoldoende vaardigheden en kennis hebben om prompts te kunnen formuleren die leiden tot kwalitatieve antwoorden en, belangrijker, om de output van ChatGPT te beoordelen. Je kan pas goede prompts schrijven als je weet waar je naar moet vragen en dat kan alleen als je al kennis over het onderwerp hebt.“
Hoe AI‑ready is de gemiddelde student nu?
Jochem ziet dat AI elk werkveld verandert, er wekelijks duizenden tools bijkomen en er enorm veel ontwikkelingen gaande zijn, maar dat de student er buiten de ICT-opleidingen onvoldoende in wordt opgeleid: “Je kan door de snelle ontwikkelingen niet verwachten dat studenten direct ‘native’ zijn in AI of dat ze met iedere nieuwe tool aan het experimenteren zijn. Sterker nog: ik zie dat bij mijn eigen studenten van Creative Business zelfs nauwelijks gebeuren. Binnen AI4Students willen we juist uitzoeken welke ontwikkelingen het werkveld écht gaan veranderen en wat de studenten nodig hebben om daarmee om te gaan. En dat begint bij de docenten en het curriculum onder de loep nemen.”
BINNEN AI4STUDENTS BIEDEN WE DAAROM DE TIJD EN RUIMTE OM POSITIEF-KRITISCH AI TE ONTDEKKEN.
"Het complexe, soms zelfs ‘dystopische’ karakter van AI leidt echter tot de neiging om te kiezen voor een snelle oplossing, zoals het aanpassen van toetsing”, vertelt Jochem. “Dat is op zich ook nodig, maar we moeten eerst een paar stapjes terug en kijken hoe we lesmateriaal en opdrachten anders kunnen insteken om studenten zo op te leiden dat ze ChatGPT en andere AI-tools verantwoord leren gebruiken. AI is een van de vele veranderingen waar docenten mee te maken krijgen en vanwege de complexiteit niet binnen een dag te begrijpen. Binnen AI4Students bieden we daarom de tijd en ruimte om positief-kritisch AI te ontdekken en als team de mogelijkheden binnen het werkveld waar we de student voor opleiden uit te pluizen. Dat is waardevol en pakt in de vorm van co-creaties goed uit.”
AI zou in 100% van de HvA opleidingen moeten komen
In de praktijk zijn de curricula per opleiding natuurlijk heel verschillend en niet direct morgen aangepast. Daarnaast hebben sommige opleidingen net een revisie achter de rug of zijn ze aan andere veranderingen onderhevig. Toch zijn er volgens Jochem genoeg manieren waarop je AI wel in de lessen kan toevoegen. Bijvoorbeeld door aan te sluiten op de vraagstukken uit de beroepspraktijk waar veel opleidingen mee werken. Die kun je volgens Jochem relatief makkelijk in de context van AI zetten, zonder langs examencommissies of curriculum-mensen te moeten gaan. “Uiteindelijk is het doel om AI een plek te geven binnen de kernvakken. We willen vermijden dat het alleen wordt aangeboden in verdiepende, specialistische keuzevakken, zodat iedere student er in een vroeg stadium verantwoord mee kan experimenteren. Dat verschilt dan per opleiding volledig in niveau, context en specifieke vaardigheden, maar AI zou in 100% van de opleidingen terecht moeten komen. Mits docenten tijd, ruimte en vaardigheden krijgen om dat te faciliteren.”
Verantwoord omgaan met AI is een gedeelde verantwoordelijkheid
Belangrijk voor de AI-ready student is volgens Jochem het besef dat AI-systemen leren door interactie met de mens. “Wat velen niet weten is dat wij AI-systemen continu trainen door er gebruik van te maken en feedback te geven. Elke vraag aan ChatGPT en iedere output is een leermoment voor het AI-systeem. Ik zou bij studenten het besef willen creëren dat er niet per se iemand achter de knoppen zit om te bepalen wat zij te zien krijgen, maar dat wij zelf als gebruikers ook AI-systemen trainen. Die systemen zijn een afspiegeling van ons en onze specifieke culturele context. Omdat niet iedereen de AI-tools kan gebruiken en dus vertegenwoordigd is, maakt dat ze erg selectief zijn en niet goed zijn in complete antwoorden genereren. We kunnen echter niet verwachten dat gebruikers continu in de gaten houden wie en wat er allemaal achter zit, maar je kan er bij commerciële partijen wel vanuit gaan dat zij niet per se het beste met hun gebruikers voor hebben. We bevinden ons nog steeds in een AI-battle, waarin bedrijven zo veel en zo snel mogelijk data willen binnen harken van gebruikers om als ‘beste’ uit de Big Tech-test te komen.”
Daardoor ontstaat een hele nieuwe verantwoordelijkheid bij politiek en wetgeving. Daar is nog behoorlijk wat werk te verrichten. “De AI Act van de EU is een goede ontwikkeling, maar ik vraag me wel af hoe die wetgeving concreet gemaakt wordt. Ik zie dat we momenteel nog niet bewegen richting een norm van verantwoord omgaan met AI. En zolang dat zo is, ligt de grootste verantwoordelijkheid bij bedrijven, de overheid en het onderwijs om te voorkomen dat gebruikers een speelbal worden. Er ligt dus een verantwoordelijkheid bij de kennis en overdracht van docenten. Onderzoek en onderwijs moeten beter met elkaar samenwerken om eerst docenten AI-ready te krijgen. Pas dan kunnen we aan de AI-readiness van studenten werken.” De HvA neemt zijn verantwoordelijkheid door te werken aan het curriculum en door AI-vaardigheden in de haarvaten van onderwijs en onderzoek te krijgen. Niet in de minste plaats om dat soort ontwikkelingen bij bedrijven te kunnen beoordelen en bekritiseren.
NET ZOALS AI ZICH SNEL ZAL BLIJVEN ONTWIKKELEN, MOET DE STUDENT DAT OOK.
De HvA kan in vier jaar een stevig kader meegeven
AI-ready studenten hebben geleerd om vragen te beantwoorden voor ze gaan bouwen. Denk aan vragen als: wie heb je daarvoor nodig? Waarom zou je het willen inzetten? Wat is het doel? Ze weten wat het betekent om toezichthouder en handhaver van AI te zijn en dat de risico’s afhankelijk zijn van de context. Bijvoorbeeld in de wereld van biometrie, bij migratie en asiel, maar ook in onderwijs is het veel kwetsbaarder om AI zomaar in te zetten. Op de vraag of ze daarmee AI-ready de HvA verlaten zegt Jochem het volgende: “Ready, maar ze zijn nooit finished. Net zoals AI zich snel zal blijven ontwikkelen, moet de student dat ook. Als je AI consequent laat terugkomen in meerdere vakken, kun je het stapsgewijs naar een hoger niveau tillen en er betere gesprekken over voeren. De impact van een les is vaak wat lager dan wij als docent willen, daarom is het des te belangrijker dat AI met regelmaat terugkomt en de inhoud van lessen en vakken goed op elkaar wordt afgestemd. Door ze in het curriculum stapjes verder te laten zetten hebben ze na vier jaar een stevig kader meegekregen.”