Impactmakers

Voorvechters van verantwoorde digitalisering

Op de HvA wordt volop nagedacht over het verantwoord inzetten van digitale technologie en AI. Ivar Timmer, Frank van der Velde, Wilco Verdoold en Jacintha Walters zijn vier in het oog springende change agents in onze hogeschool.

Mijn drijfveer is om de overheid digitaal volwassen te maken met aandacht voor juridische kwaliteit

Ivar Timmer, lector Legal Management & Technology en inhoudelijk onderzoekscoördinator van het Legal Tech Lab, onderdeel van het Centre of Expertise Applied AI.

Hoe zet je technologie zo in dat het de juridische kwaliteit ten goede komt? Dit vormt de rode draad in het werk van Ivar Timmer, lector Legal Management & Technology aan de HvA. Ivar: “De overheid lijkt tegenwoordig op een soort website. Als je digitaal en taalvaardig bent, navigeer je er vaak met weinig moeite doorheen. Maar als dat niet het geval is, kan digitalisering juist bijdragen aan de bureaucratie en ontoegankelijkheid van dienstverlening.”
Ivar Timmer
Het indienen van een vergunning- of uitkeringsaanvraag, of het ontvangen van een boete. Het zijn voorbeelden waarin technologie een belangrijke ondersteunende rol speelt, of waarbij besluitvorming soms zelfs volledig is geautomatiseerd. Het omzetten van rechtsregels naar digitale systemen wordt ‘digitale vertalingen’ genoemd. " Digitalisering heeft talloze voordelen, zoals 24/7 beschikbaarheid en computers die nooit moe worden. Maar als je het niet goed toepast, kan het de ontoegankelijkheid van de overheid sterk vergroten. Denk aan situaties waarin digitale systemen mensen over één kam scheren of geen rekening houden met bijzondere omstandigheden, zoals bij de toeslagenaffaire.”
Digitaal doolhof
Ivar benadrukt de cruciale rol van recht in onze samenleving. Hij vindt het zorgwekkend dat een groep burgers steeds wantrouwender wordt tegenover de overheid, mede door de digitalisering. “ Als je een laag inkomen hebt, moet je bijvoorbeeld door tientallen sociale regelingen navigeren. De overheid wordt dan snel een digitaal doolhof voor burgers en dan is het begrijpelijk dat ze uiteindelijk afhaken. Mijn drijfveer is om de overheid digitaal volwassen te maken met aandacht voor juridische kwaliteit. Dat vind ik het meest interessante aspect van mijn werk en daar kom ik graag mijn bed voor uit.”
EEN VAN DE UITDAGINGEN BIJ ‘DIGITALE VERTALINGEN’ IS DAT BETROKKENEN IEDER HUN EIGEN PERSPECTIEF HEBBEN: JURISTEN EN ICT’ERS BEGRIJPEN BIJVOORBEELD NIET ALTIJD ELKAARS TAAL.
Gezamenlijke taal
Om professionals bewust te maken van het belang van zorgvuldige en burgergerichte digitale dienstverlening, heeft de HvA in samenwerking met andere hogescholen en universiteiten de Leergemeenschap Digitale Vertalingen opgezet. Hier worden verschillende vakgebieden, zoals ICT, Rechten en Bestuurskunde, samengebracht met praktijkorganisaties. “Een van de uitdagingen bij ‘digitale vertalingen’ is dat betrokkenen ieder hun eigen perspectief hebben: juristen en ICT’ers begrijpen bijvoorbeeld niet altijd elkaars taal. Het hoofddoel van de leergemeenschap is om diverse invalshoeken samen te brengen en een gemeenschappelijke taal te creëren, zodat zij effectiever met elkaar kunnen communiceren.”
Begin van de klim
Volgens Ivar is het tegenwoordig onmogelijk om nog diensten te organiseren zonder technologische ondersteuning. “We verwachten niet dat de juridische professionals die we opleiden experts worden in ICT, maar wel dat ze basiskennis hebben van hoe technologie werkt, zodat ze kunnen beoordelen waar software wel en niet voor kan worden ingezet.” In de bachelor HBO-Rechten wordt hier al aandacht aan besteed, maar vanaf 2025 krijgen studenten de mogelijkheid om zich tijdens de masterstudie Legal Tech nog verder te specialiseren in dit onderwerp. “Wanneer je naar de overheid kijkt en de hoeveelheid rechtsregels die op allerlei gebieden al ‘vertaald’ zijn naar digitale systemen, praten we over honderdduizenden regels. Het herontwerpen en verbeteren van deze regels volgens recente inzichten en methoden is een enorme opgave. Daar hebben we heel veel professionals voor nodig. We staan eigenlijk nog maar aan het begin van de beklimming van de Mount Everest, maar we moeten ergens starten. Alleen zo kunnen we toegroeien naar een volwassen digitale overheid.”
Frank van der Velde

Het verantwoord gebruik van AI wordt nog te weinig belicht

Frank van der Velde, student Software Engineering

Ver voordat AI booming was, wist Frank van der Velde al dat hij zich er in wilde verdiepen. De potentie van AI om de wereld te veranderen en verbeteren spreekt hem aan. Hij ziet dat AI steeds toegankelijker wordt, met name voor software developers, en dat maakt het extra interessant. Om actief met dit thema aan de slag te gaan, sloot hij zich aan bij de studentenraad van het CoE Applied AI.
“Nu AI ineens populair is geworden, vinden mensen met een minder technische achtergrond het moeilijk om mee te komen. Ik zie bijvoorbeeld bij medestudenten dat ze wel veel horen over AI, maar het blijft allemaal nogal abstract en vaag voor hen.” In de studentenraad van het CoE Applied AI organiseert Frank samen met twee andere studenten evenementen en activiteiten. Het doel is om het thema AI meer onder de aandacht te brengen bij studenten en medewerkers en het toegankelijk en leuk te maken voor mensen, zodat ze er meer over kunnen leren.
Creativiteit zonder plagiaat
“Studenten krijgen vaak te horen dat AI slecht is en dat je het niet voor school moet gebruiken, maar dat is gewoon niet waar. Natuurlijk moet je geen teksten klakkeloos overnemen, maar het is een handige tool die kan helpen bij brainstormen, het leren van een taal of het opmaken van teksten.” Een specifiek aandachtspunt van de studentenraad is generatieve AI (een vorm van kunstmatige intelligentie, waarmee je nieuwe content kan creëren zoals afbeeldingen, video's en tekst, red.). De studentenraad wil medestudenten een nieuwe vaardigheid leren door ze te laten zien hoe je een filmpje, poster of foto genereert met AI. Vervolgens wordt het ethische aspect besproken: hoe kun je het inzetten zonder plagiaat te plegen? Volgens Frank wordt het verantwoord gebruik van AI nog te weinig belicht.
HET IS NIET ALTIJD TASTBAAR EN DUIDELIJK WAAROM IETS GOED OF FOUT IS.
Ethiek en AI
Frank ziet het bijbrengen van een stukje ethiek als een van de grootste uitdagingen bij het gebruik van AI in het onderwijs. “ Het is niet altijd tastbaar en duidelijk waarom iets goed of fout is. Ook docenten die minder technisch zijn hebben hiermee te maken, omdat het voor hen moeilijker is om ingeleverd werk te controleren. Maar het belangrijkste besef is: de verantwoordelijkheid ligt altijd bij de gebruiker. ChatGPT kan heel handig zijn om nieuwe dingen te leren, maar het is belangrijk om te begrijpen hoe de software werkt en hoe je kunt herkennen wanneer het foutieve informatie genereert.”

We moeten breken met het idee dat het toepassen van ChatGPT valsspelen is

Wilco Verdoold, docent en onderzoeker bij de opleiding Commerciële Economie, Register Marketeer

Waar sommige docenten worstelen met de opkomst van AI, ziet Commerciële Economie-docent Wilco Verdoold juist kansen voor het onderwijs. Met een rijke achtergrond in de marketingwereld, rolde hij vier jaar geleden het onderwijs in. “Als je AI als docent ‘er even bijdoet’ dan verslaat je student je met ChatGPT zonder dat je het doorhebt.”
Wilco Verdoold
Met de doorbraak van ChatGPT ontstond er een soort angst bij docenten dat de opdrachten die ze bedacht hadden niet langer het gewenste effect zouden hebben, merkte Wilco op. Volgens hem is dat gedeeltelijk waar, maar gaat het er vooral om dat docenten op een andere manier gaan evalueren wat zij hun studenten willen leren. “Als hogeschool bereiden wij studenten voor op de toekomst. We zouden niet alleen moeten focussen op hoe we het onderwijs moeten aanpassen; het is minstens zo interessant om te verkennen hoe het vakgebied van de toekomstige marketeer verandert als gevolg van deze ontwikkelingen.”
ChatGPT als vaardigheid
“Onlangs vertelde een student dat hij bij een stagegesprek de vraag kreeg of hij gebruikmaakt van ChatGPT. Ik vroeg hem wat zijn reactie was, en hij antwoordde: ‘Ik heb er een beetje omheen gepraat.’ We moeten breken met het idee dat het toepassen van ChatGPT valsspelen is en het zien als een vaardigheid. Ik herinner me uit mijn eigen studententijd, toen het internet opkwam, dat we er eigenlijk niet veel les over kregen. Organisaties dachten destijds: we hebben een student nodig, want die begrijpt hoe het werkt en wat we er allemaal mee kunnen.” Nu ziet Wilco dat bedrijven op zoek zijn naar studenten die zich bezighouden met kunstmatige intelligentie. “We ontdekken nog wat je allemaal met generatieve AI, zoals ChatGPT, kunt doen. Ik vind het bijvoorbeeld een fantastische tool om te brainstormen. Wanneer je het hiervoor inzet, hoef je ook niet per se bronnen te vermelden. Zelf kom ik tot de beste ideeën als ik onder de douche sta, en daar bedank ik ook nooit het waterleidingbedrijf voor.
Wilco gelooft dat veel van de huidige onderwijsregels vervangen kunnen worden door één kernprincipe: de student is te allen tijde verantwoordelijk voor wat hij presenteert, produceert en oplevert. Met dat als uitgangspunt maakt het eigenlijk niet uit welke weg je neemt om daar te komen. “Ik gebruik vaak de metafoor van de piloot: of je nou de automatische piloot inschakelt of de copiloot taken laat uitvoeren, uiteindelijk ben jij degene die verantwoordelijk is voor dat vliegtuig.”
HET MAG NIET ZO ZIJN DAT STUDENTEN MET MEER FINANCIËLE MIDDELEN DE OPLEIDING BETER KUNNEN VOLGEN OMDAT ZE DE PRO-VERSIE VAN BEPAALDE TOOLS KUNNEN AANSCHAFFEN.
Uitdagingen in het AI‑onderwijs
De grootste uitdaging die Wilco ziet bij AI in het onderwijs is het volledig omarmen ervan, zonder belemmerende regels op te stellen. Een tweede uitdaging is het toegankelijk maken van tools voor álle studenten. “Het mag niet zo zijn dat studenten met meer financiële middelen de opleiding beter kunnen volgen omdat ze de pro-versie van bepaalde tools kunnen aanschaffen.” De derde uitdaging is het betrekken van alle collega’s bij deze ontwikkelingen. “Als je langer in het onderwijs zit, kan de constante stroom van onderwijsinnovaties en verandertrajecten vermoeiend zijn. Toch kun je deze ontwikkeling niet aan je voorbij laten gaan.”
WE HOEVEN NIET BANG TE ZIJN VOOR MACHINES DIE STEEDS MEER DENKEN ALS MENSEN; WE MOETEN ALLEEN BANG ZIJN VOOR MENSEN DIE STEEDS MEER DENKEN ALS MACHINES.
Meer mens, minder machine
De evolutie van AI gaat razendsnel en gesprekken richten zich al snel op de toekomstige mogelijkheden ervan. Wilco merkt op dat mensen dit vaak als excuus gebruiken om niet na te denken over nu en morgen, terwijl er tal van kansen voor het grijpen liggen. In het marketingvak voorziet hij dat marketeers steeds minder tijd achter hun schermen zullen doorbrengen, omdat AI dat stukje sneller maakt. In plaats daarvan zullen ze meer het gesprek aangaan en onderbouwen waarom ze een bepaalde keuze maken. “Aangezien AI-systemen geen gevoel hebben, zal het belang van context, cultureel bewustzijn en lef toenemen. Een treffende quote: ‘We hoeven niet bang te zijn voor machines die steeds meer denken als mensen; we moeten alleen bang zijn voor mensen die steeds meer denken als machines.’ Ik geloof dat het marketingvak juist mogelijkheden biedt voor die menselijkheid, zowel tijdens de opleiding als in de beroepspraktijk. Dat maakt het onderwijs uiteindelijk ook leuker.”
Jacintha Walters

Ik denk dat het belangrijk is om te blijven nadenken over waar AI echt waarde toevoegt

Jacintha Walters, coördinator Cyber Security bij Make IT Work (IT-omscholingstraject van de HvA)

De ontwikkeling en toepassing van AI zitten in een stroomversnelling. Met het oog op een veilige, verantwoorde en betrouwbare toepassing van kunstmatige intelligentie, heeft de EU een voorlopig akkoord bereikt over nieuwe Europese AI-wetgeving. De AI Act heeft als hoofddoel om mogelijke risico's of negatieve impact op mensen en de samenleving te minimaliseren. Tijdens haar masterstudie Applied Artificial Intelligence onderzocht Jacintha Walters bij 15 grote en kleine bedrijven in hoeverre zij zijn voorbereid op de nieuwe regelgeving. Haar doel? De onderzoekswereld wakker schudden over het weinige praktische onderzoek naar de impact van de AI Act, terwijl veel organisaties voor uitdagingen staan.
De AI Act maakt onderscheid tussen verschillende risicocategorieën: hoog, medium en laag. De eerste stap voor organisaties is om te bepalen in welke categorie zij zitten. Alleen wanneer organisaties werken aan AI met een hoog risico, is de wetgeving van toepassing. Hierbij gaat het bijvoorbeeld om systemen die beoordelen of mensen recht hebben op een uitkering of AI-toepassingen die werving of beoordeling van medewerkers uitvoeren. Voor AI met een medium of laag risico dient de wetgeving eerder als richtlijn.
Voorbereiding essentieel
Uit Jacintha’s onderzoek komt naar voren dat bedrijven met veel ervaring op het gebied van AI niet per se beter inspelen op de AI Act. Toch is een goede voorbereiding volgens haar van groot belang. “De razendsnelle ontwikkelingen in technologie zorgen ervoor dat wat momenteel niet als hoog risico wordt gezien, in de toekomst wel als hoog risico kan gelden. Mijn advies aan bedrijven is om actief te onderzoeken wat hun AI-systeem doet en welke impact het kan hebben op mensenlevens. Het is overigens niet het model zelf dat een hoog risico vormt, maar de context waarin het wordt toegepast. Een aanbevelingssysteem op Amazon voor kleding is bijvoorbeeld niet risicovol, maar wanneer je met datzelfde model aanbevelingen doet voor personeelswerving, heeft het wel een hoog risico.”
HET PROBLEEM IS DAT BEDRIJVEN VAAK GEWOON ‘IETS WILLEN DOEN MET AI’ EN VANUIT DIE GEDACHTE OP ZOEK GAAN NAAR EEN TOEPASSING.
Simpel versus complex
Volgens Jacintha schuilt een van de grootste gevaren in de toepassing van AI in het risico op vooroordelen. Neem bijvoorbeeld een HR-aanbevelingssysteem. Als je uitsluitend gegevens invoert van mannen die eerder dezelfde functie hadden, dan kan het AI-systeem denken dat je een voorkeur hebt voor mannen, ook al zoek je naar andere kenmerken. Het is moeilijk om die bias eruit te halen, omdat het systeem snel kan raden of iemand man of vrouw is.

“Ik denk dat het belangrijk is om na te blijven denken over waar AI echt waarde toevoegt. Het probleem is dat bedrijven vaak gewoon ‘iets willen doen met AI’ en vanuit die gedachte op zoek gaan naar een toepassing. Het is efficiënter om eerst te kijken naar welk probleem er ligt en welke technieken er bestaan om dit op te lossen. Vaak kom je dan uit op een veel simpeler systeem in plaats van een complex AI-model.”
Jacintha's onderzoeksbevindingen zijn gepubliceerd op arXiv en momenteel werkt zij aan een vervolgonderzoek. In dit onderzoek bepaalt ze of een op ChatGPT gebaseerd hulpmiddel bedrijven onder de AI Act kan helpen met het snel vinden van antwoorden, met name voor bedrijven die geen specifiek opgeleid personeel hebben voor dit soort wetgeving.