Koersbepaler

VOORBIJ DE KRITISCHE REFLECTIE

Hoe omarmen we AI op een verantwoorde manier?
Zet Nanda Piersma en Frank Kresin samen aan tafel en de passie voor kunstmatige intelligentie (AI), onderzoek en onderwijs vliegt je om de oren. Nanda, wetenschappelijk directeur van het Centre of Expertise Applied Artificial Intelligence en Frank, decaan van de faculteit Digitale Media en Creatieve Industrie (FDMCI) wisten al vroeg dat AI heel wat teweeg zou gaan brengen. Sinds de snelle opkomst van generatieve AI toonde de HvA zich een wendbare en weerbare organisatie en ontwikkelde een solide visie op AI. Publieke waarden en de mens staan daarin centraal. Vanuit het Centre of Expertise Applied AI is een waslijst aan initiatieven ontwikkeld en het laatste idee is om AI-impact voor alle HvA-opleidingen in beeld te brengen. Een dubbelinterview over het verantwoord inzetten van AI en hoe spannend dat is.
Nanda Piersma

De verrassend snelle adoptie van AI

Nanda Piersma houdt zich al sinds de vorige eeuw bezig met ICT en AI. Zag zij de enorm snelle opkomst van generatieve AI aankomen? “Al sinds de jaren negentig is AI in zogenaamde neurale netwerken op de achtergrond in ontwikkeling. Door de komst van steeds grotere computersystemen en zeker met de komst van generatieve tools is AI-gebruik exponentieel gegroeid. De technologie kenden en gebruikten we, maar het was verrassend hoe het plotseling en massaal een commercieel product werd dat vervolgens wereldwijd werd omarmd.”
WAT ONS VERBAASDE WAS DE SNELLE ADOPTIE. NIET ALLEEN DOOR WETENSCHAPPERS, MAAR DOOR IEDEREEN.

Het was Frank Kresin die er mede voor zorgde dat de raderen van de HvA op het juiste moment gingen draaien. “Binnen het CoE Applied AI en de HvA ambitietafel Verantwoorde Digitalisering, werd eind 2022 duidelijk dat generatieve AI meer dan een hype was. Wat ons verbaasde was de snelle adoptie. Niet alleen door wetenschappers, maar door iedereen. Je zag dat studenten vaak veel sneller dan docenten de weg naar deze nieuwe technologie wisten te vinden en er de waarde van inzagen.” Nanda en Frank namen het initiatief om vanuit het CoE Applied AI het ondersteuningsprogramma ‘Onderwijs met AI’ te bouwen voor alle opleidingen. Het College van Bestuur was direct bereid dat te financieren. Daardoor waren we al snel HvA-breed in gesprek om na te denken over de implicaties van AI.
Frank Kresin
HET GAAT ONS EROM DAT DE TECHNOLOGIE WAARDEGEDREVEN IS EN DAT ZAKEN ALS MENSENRECHTEN, RECHTSSTATELIJKHEID, DIVERSITEIT EN INCLUSIE VANAF HET BEGIN IN HET ONTWERP ZIJN MEEGENOMEN.
De mens centraal in plaats van de technologie
Bij zo’n onderwerp heb je misschien de neiging om te beginnen bij de technologie, maar volgens Frank is dat de verkeerde aanpak. “Je moet de mens centraal stellen en de technologie daaromheen ontwerpen. Daarbij wil je mensen handelingsperspectief geven, zodat ze bewust kiezen of en hoe ze AI toepassen. Het gaat ons erom dat de technologie waardegedreven is en dat zaken als mensenrechten, rechtsstatelijkheid, diversiteit en inclusie vanaf het begin in het ontwerp zijn meegenomen. Juist bij zo’n snelle opmars is verantwoord gebruik van belang. We zouden het ook niet accepteren als er geen controle meer zou zijn bij het ontwikkelen van medicijnen, voedsel of auto’s. Bij AI, waar het gaat om een wisselwerking tussen je hersens en een machine, doen we ineens alsof die controlemechanismen niet belangrijk zijn, terwijl de disruptieve kracht ervan enorm is.”
PUBLIEKE WAARDEN BEPAAL JE NIET MET EEN CHECK ACHTERAF, MAAR DIE MOETEN STAAN VANAF HET BEGIN.
Co‑creatie vooraf in plaats van check achteraf
Het inbouwen van publieke waarden is ook de reden waarom het CoE Applied AI de slogan ‘We co-create to make AI work’ heeft gekozen’, vertelt Nanda. “Publieke waarden bepaal je niet met een check achteraf, maar die moeten staan vanaf het begin. Denk aan een vraagstuk als het inzetten van AI voor handhaving vanuit de Belastingdienst. Deze instantie gebruikt AI voor controle op aanvragen voor toeslagen, op dezelfde manier als het controle houdt over belastingaangiftes. Terwijl ze over de gegevens beschikt om rule-based aan de juiste mensen te laten weten dat ze recht hebben op een bepaalde toeslag. Technologie niet inzetten in de controlefunctie maar in de servicefunctie heeft meerwaarde en voorkomt fraude. Je moet dus eerst vanuit allerlei disciplines en co-creatie kijken wat het probleem is, voordat je gaat werken aan een technische oplossing.“
Slimme markten creëer je met goede regels
Frank verwacht niet dat we worden overvallen door AI. “Nergens anders ter wereld wordt zo grondig nagedacht over het inperken van technologie als in Europa. We laten als enige zien dat we grote bedrijven als Meta, Apple en Google aansporen om hun producten verantwoord te maken. Maar in Amerika kunnen venture capitalists nieuwe ideeën snel groot maken, waardoor ze als eerste een markt openbreken. Ik zou ons toewensen dat wij in staat zijn om diezelfde markten te creëren, maar dan met publieke waarden. We kunnen markten slimmer en beter maken, juist door spelregels met elkaar af te spreken.”
WE KUNNEN MARKTEN SLIMMER EN BETER MAKEN, JUIST DOOR SPELREGELS MET ELKAAR AF TE SPREKEN.
Nanda Piersma & Frank Kresin

Werken aan een nieuwe publieke datakluis

Een probleem dat Nanda signaleert is dat we maar blijven voortbouwen op oude technologie. “We zijn onze gegevens in de loop van jaren op heel veel verschillende plaatsen op gaan slaan. Daardoor is ons digitale ecosysteem helemaal uit de hand gelopen. Zoiets zouden we nu op deze manier niet meer ontwikkelen en dat betekent dat we zo snel mogelijk een digitale publieke datakluis moeten gaan bouwen, gebaseerd op publieke waarden. Zo’n datakluis waarin mensen eigenaar worden van hun eigen data, is een manier om ze meer autonomie te geven en data met veel minder CO2-uitstoot te beheren. Daar zou de HvA een goede rol in kunnen spelen. Als je met studenten verkent hoe zo'n publieke digitale infrastructuur eruit zou kunnen zien, creëer je een alternatief waardoor ze het verschil kunnen maken als zij uiteindelijk op de plek van de huidige managers zitten.”
HET IS NIET DE BEDOELING DAT JE ETHIEK EN AI ALS APARTE WORKSHOP GEEFT OP VRIJDAGMIDDAG TUSSEN VIER EN VIJF, MAAR DAT DIE VRAAGSTUKKEN AAN HET BEGIN STAAN VAN ELK ONTWERP DAT STUDENTEN BOUWEN.
Ethiek aan de voorzijde
Frank stelt dat je grote thema’s als duurzaamheid, inclusie en diversiteit tastbaar kunt maken door ze te vertalen naar een specifieke context. “Ook bij dat soort waarden geldt: think global, act local. Zo kan je de waarde diversiteit & inclusie bijvoorbeeld omarmen door in het sollicitatieproces bij gelijke geschiktheid voorrang te geven aan mensen met een niet-Westerse migratieachtergrond. Binnen de faculteit FDMCI bespreken docenten ethiek en filosofie, hoe je publieke waarden kunt toepassen op technologie.” Nanda voegt toe dat ethiek geen bijzaak is. “Het is niet de bedoeling dat je ethiek en AI als aparte workshop geeft op vrijdagmiddag tussen vier en vijf, maar dat die vraagstukken aan het begin staan van elk ontwerp dat studenten bouwen. De unknown unknowns kom je namelijk pas tegen als je technologie gaat toepassen. Omdat je vooraf niet alles volledig verantwoord kunt dichttimmeren, moet het geven van handelingspespectief aan gebruikers van AI, een manier van werken worden.”
JE KUNT JE AFVRAGEN HOE WAARDEVOL EEN SCRIPTIE NOG IS OM TE TOETSEN OF IEMAND AFSTUDEERWAARDIG IS.
Onderwijs opnieuw uitvinden
Dat betekent natuurlijk nogal wat voor de dagelijkse praktijk van een hogeschool. Frank: “Als hbo zit je tussen het praktische van het mbo en het theoretische van de universiteit in. Een hbo’er werkt slim, maar toch toegepast, als een reflective practitioner. Dat toetsen we momenteel bij studenten door ze producten te laten maken en reflecties te laten schrijven. Nu het maken van digitale producten en teksten ineens geautomatiseerd wordt, moet je als student op een andere manier aantonen dat je die reflective practitioner bent.” Ook Nanda ziet de uitdaging. “Je kunt je afvragen hoe waardevol een scriptie nog is om te toetsen of iemand afstudeerwaardig is. Daarom praten we sinds februari 2023, vanuit het programma ‘Onderwijs met AI’, met opleidingen over hoe ze toetsen en welke vragen ze bij het examen stellen. Om al onze studenten AI-ready de deur uit te krijgen moet je ook docenten helpen AI-ready te worden. Je hoeft geen AI-systeem te kunnen bouwen om AI-ready te zijn, maar je moet wel op de juiste manier met die systemen kunnen werken. Als gebruiker én vanuit opdrachtgeverschap.”
Nanda Piersma
IK ZIE DE HVA ALS EEN LIVING LAB, EEN PLEK WAAR JE FOUTEN MAG MAKEN, MAAR WAAR MENSEN WEL LEREN HOE JE TECHNOLOGIE VERANTWOORD KUNT GEBRUIKEN.
Vier manieren waarop de rol van de HvA verandert
Omdat AI zo disruptief is verwacht Frank een hoop verandering in onderwijs en onderzoek. “Ten eerste verandert onze didactiek. Docenten moeten op een andere manier gaan lesgeven en toetsen. Ten tweede veranderen alle beroepen waarvoor we opleiden, waardoor iedere opleiding zich af moet vragen wat het werkveld nu en straks nodig heeft en wat je studenten moet meegeven. Ten derde verandert ook onze organisatie, wij kunnen AI toepassen in onze bedrijfsvoering om onze kwaliteit en efficiëntie te vergroten. En ten vierde verandert onze studentenpopulatie, omdat AI de noodzaak laat zien van een leven lang leren en ontwikkelen. Dus krijgen we meer en meer studenten die al actief zijn op de arbeidsmarkt.” Nanda: “Op al deze vier gebieden houden we rekening met de hoge of lage adoptiegraad van mensen. Die flexibiliteit moeten we binnen de hogeschool organiseren. Je wil een thuisbasis zijn, zodat mensen zich veilig voelen. Ik zie de HvA als een Living Lab, een plek waar je fouten mag maken, maar waar mensen wel leren hoe je technologie verantwoord kunt gebruiken."
ER IS EEN HEEL RIJK, INNOVATIEF VELD ONTSTAAN VOOR MENSEN DIE EEN TOEKOMST MET AI WILLEN VORMGEVEN EN DAAR LEIDEN WE VOOR OP.
Disruptie is geen doemscenario
De HvA heeft volgens Frank de taak om studenten om te leren gaan met onze complexe wereld, zodat ze niet bij de pakken neer gaan zitten. Hij benadrukt: “Disruptie is iets anders dan een doemscenario. We zijn ons bewust van de negatieve aspecten en enthousiast over de kansen. Niet alleen voor onszelf, maar ook voor onze studenten en onze partners. Er is een heel rijk, innovatief veld ontstaan voor mensen die een toekomst met AI willen vormgeven en daar leiden we voor op.” Nanda: “Als HvA
willen we zorgen dat de jonge generatie perspectief ziet. Dat doe je niet door een dystopische toekomst neer te zetten, maar ook niet door te blijven hangen in het nu.“
DE CREATIEVE INDUSTRIE KAN HEEL VEEL BETEKENEN VOOR HET VERBEELDEN VAN DE TOEKOMST EN HET UITDENKEN VAN SCENARIO’S.

Kansen voor de samenleving

In de snelle opmars van AI zitten heel veel kansen voor de samenleving. Zo sprak Nanda met een bedrijf dat een AI ontwikkelde om keelkanker op te sporen. “Een arts heeft dat in dertig procent van de gevallen goed, de AI heeft het goed in tachtig procent. Als het gaat om preventie, diagnose of handhaving doet een AI het vaak beter dan een menselijke expert. Dat soort dingen kun je dus, met waarborgen omkleed, net zo goed automatiseren. Stompzinnig of repetitief werk automatiseren vindt iedereen prima, maar nu we handelingen in het hoofd van mensen automatiseren worden mensen toch een beetje angstig.” Frank denkt dat omdenken de oplossing is. “Je moet echt opnieuw gaan nadenken hoe je de maatschappij in elkaar zet en dan kom je onvermijdelijk bij de vraag wat een zinvol leven is. De toegevoegde waarde van die keelkankerspecialist wordt gewoon anders. Door te focussen op de interactie met de patiënt, kan een behandeling veel warmer en liefdevoller worden dan vroeger. Dan is het misschien niet zo erg om die technische kanten te automatiseren.” Nanda is ook kroonlid van de Sociaal-Economische Raad (SER) en heeft het vaak over de toekomst van werk. “Je ziet in de discussies dat veel mensen een technische, instrumentele manier van kijken hebben. Ik zou willen pleiten voor meer verbeelding.” Dat is koren op de molen van Frank: “ De creatieve industrie kan heel veel betekenen voor het verbeelden van de toekomst en het uitdenken van scenario’s. Misschien dat AI daarbij kan helpen, maar je hebt juist de mens nodig om te bepalen hoe wenselijk zo’n scenario is.”
Frank Kresin
WE ZIEN AI NIET ALS EEN BEDREIGING EN KIJKEN NAAR DE VOORWAARDEN DIE NODIG ZIJN OM HET ALS EEN KANS IN TE ZETTEN.
HvA als verbinder van het thema AI
Op de vraag wat de metropoolregio Amsterdam mag verwachten van de HvA in de nabije toekomst verwijst Frank allereerst naar de vele studenten die jaarlijks uitstromen. “Aan de ene kant leiden we duizenden studenten AI-ready op voor de toekomstige beroepenmarkt van Amsterdam en daarbuiten. Aan de andere kant hebben we met meer dan zeventig lectoraten een taak op het gebied van kennisproductie, die steeds vaker een technologische component zal hebben. Daarnaast zijn we AI-kennispartner van de gemeente, de regio, de provincie en in toenemende mate van de ministeries. We zijn hbo-kennispartner in Amsterdam AI. Op het gebied van toegepaste, verantwoorde AI zitten wij in de voorhoede. Je kunt de HvA zien als een gigantisch Living Lab waarin we ontdekken hoe het onderwijs er in de toekomst uit kan zien. Daarin hebben we een voortrekkersrol en werken we samen met Hogeschool Utrecht en Hogeschool Rotterdam aan een programma om toegepaste AI naar een hoger plan te tillen.” Volgens Nanda is dat laatste inmiddels echt ingebed in de HvA; “We zien AI niet als een bedreiging en kijken naar de voorwaarden die nodig zijn om het als een kans in te zetten. Dat zit ‘m in vaardigheid, waardigheid en weerbaarheid. Je wil bedenken hoe we met technologie en met elkaar omgaan.”