Amfluencers

Iedereen moet deel kunnen nemen aan het gesprek over technologie

Internetpionier Marleen Stikker: de overheid en het bedrijfsleven veronderstellen dat ze AI moeten toepassen, maar hebben niet scherp wat het nut en de noodzaak voor het gebruik van AI is. Het is belangrijk dat zoveel mogelijk mensen mee kunnen ontwerpen aan een open, eerlijke en inclusieve toekomst.

Wat als de bedoeling goed is, maar je het verkeerde doet?

Met behulp van algoritmes screende het Preventief Interventie Team jonge kinderen om te voorspellen of ze op het slechte pad raken. Een broer of zus die bekend is bij de politie, vaak afwezig zijn op school, als slachtoffer betrokken geweest zijn bij huiselijk geweld en bedplassen. Op basis van deze data werden kinderen bestempeld als potentiële criminelen, toegevoegd aan de Top600 van criminele jongeren en onderworpen aan speciale programma’s. De intenties waren misschien goed, maar in werkelijkheid werden de rechten van deze kinderen en hun families ernstig geschonden.
Marleen Stikker

Vragen stellen over nut en noodzaak

Deze vorm van predictive policing is een van de voorbeelden die Marleen Stikker noemt. Een verkeerd middel inzetten zonder vooraf het gesprek met elkaar te voeren over waar we AI voor willen gebruiken, wat mogelijke nadelen zijn en hoe we vooroordelen kunnen voorkomen. Het komt veelvuldig voor. De overheid en het bedrijfsleven veronderstellen dat ze AI moeten toepassen. Ze zijn bang om achter te blijven, maar hebben niet scherp wat het nut en de noodzaak voor het gebruik van AI is. Bovendien worden burgers niet tot nauwelijks betrokken in het ontwerpproces van technologie.
Waag Futurelab wil dat zoveel mogelijk mensen technologie mee ontwerpen
Dat is precies waar Marleen zich sterk voor maakt: zoveel mogelijk mensen moeten mee kunnen ontwerpen aan een open, eerlijke en inclusieve toekomst. Daar is kennis en toegang tot technologie voor nodig. Om die reden maakte zij in 1993 het internet toegankelijk met ‘De Digitale Stad’, een van de eerste sociale media platformen. Dit leidde tot de oprichting van Waag Futurelab. Marleen bracht destijds samen met de huidige Chief Science Officer van de Gemeente Amsterdam Caroline Nevejan de werelden van design, ethische hackers, maatschappelijke bewegingen, kunst en technologie bij elkaar.

Waag is uitgegroeid tot een instituut dat nieuwe technologieën onderzoekt, culturele aannames bevraagt en alternatieven ontwerpt op basis van publieke waarden. Zo laat Waag Futurelab leerkrachten in het Teacher Maker Camp kennismaken met moderne maaktechnieken zoals digitale fabricage. Zij gaan letterlijk met een schroevendraaier in de hand een digitaal apparaat ‘unboxen’ en leren de basisprincipes van technologie. In korte tijd komen ze van hun techno-angst af, raken ze geïnspireerd en kunnen zij hun leerlingen beter voorbereiden op de 21ste eeuw.
Ontwikkeling kritisch bewustzijn
We moeten niet alleen onze vaardigheden als mediawijsheid en ICT-geletterdheid verbeteren, ook de ontwikkeling van een kritisch bewustzijn over technologie is nodig volgens Marleen. “Jongeren kunnen goed swipen en prompten. Ze zijn zeker digivaardig, maar weten niet per se beter dan ouderen wat er onder de motorkap van technologie schuilgaat.” Kritisch bewustzijn heeft dus niet zozeer met leeftijd te maken. Het heeft meer te maken met je grondhouding. Er is een verschil tussen een kritische of een pragmatische houding. Met kritisch wordt niet bedoeld dat je negatief bent, maar dat je onderzoekend bent en ‘onderscheid’ kunt maken. De mate waarin je verder kijkt dan het oppervlak, is iets wat je ontwikkelt. Een kritische houding aannemen leer je bijvoorbeeld door familie of vrienden of tijdens een opleiding. “In elk vakgebied zou je een aantal digitale basis skills moeten leren zodat je de principes van technologie begrijpt,” stelt Marleen. “Je ontkomt er niet aan; iedereen heeft met technologie te maken. Net als lezen en schrijven, is kennis over technologie essentieel.”

De HvA draagt met het lectoraat ‘Responsible IT’ een steentje bij aan het tot stand komen van een dergelijke kritische houding. Marleen ontwikkelde met collega’s van de HvA en Waag Futurelab de minor Public Stack, waarbij studenten uit verschillende disciplines (ethiek, recht, economie, design en techniek) samenwerken rondom digitale vraagstukken.
Brainwash talk - Marleen Stikker
Van verpleegkundige tot onderwijzer, van jurist tot ontwerper: we willen een taal ontwikkelen zodat iedereen kan deelnemen aan het gesprek over technologie, we weerbaarder zijn en een kritisch geluid kunnen laten horen.
Weerbaarheid tegen techreuzen
Waarom is het zo belangrijk dat mensen digitaal weerbaar zijn? Op dit moment zijn het techreuzen als Google, Apple, Facebook, Amazon en Microsoft die de besluiten over software en datasystemen nemen. Deze bedrijven, waar honderden miljarden in omgaan, hebben een enorme machtspositie en bieden onvoldoende bescherming voor onze data.

Denk bijvoorbeeld aan video’s die met AI gemanipuleerd zijn, ook wel deepfakes genoemd. “Ze zijn vaak grappig en vermakelijk, maar het probleem is dat bedrijven zich data toe‑eigenen waar ze geen recht op hebben."

"De gigantische dataverzamelingen van Big Tech zijn vaak onrechtmatig verkregen, door schending van het intellectueel eigendom en verzameling van privacygevoelige data. Het kan daarom gezien worden als de grootste diefstal van de eeuw. We hebben hier veel te weinig zicht op en de regelgeving loopt achter.”
AI leeft niet, denkt niet, voelt niet en wil niets
Er zijn regelmatig misleidende uitspraken over kunstmatige intelligentie. Op dit moment is er veel aandacht voor generatieve AI. Op basis van een grote hoeveelheid digitale content worden automatisch nieuwe teksten, afbeeldingen, audio, video en code gemaakt. Het kan lijken op menselijke intelligentie. Volgens sommigen is dit een teken dat AI de mens gaat overheersen omdat zij dit als een hogere vorm van intelligentie zien. Deze uitspraken zijn nonsens volgens Marleen. “De vraag over wat intelligentie is, ligt wetenschappelijk volledig open. De micro-organismen in onze darmen blijken veel meer invloed te hebben op ons denken en voelen, dan we voorheen dachten. Dat bewustzijn kan ontstaan uit dode materie, uit de mechanische verwerking van nullen en enen, is onjuist. Dat is echt een Frankenstein fantasie. AI leeft niet, denkt niet, voelt niet en wil niets. Het zijn de intenties van de bedrijven die eigenaar zijn van AI waar we ons zorgen over moeten maken. Deze bedrijven hebben onbeperkte macht en leiden de aandacht af met verzinsels om stevige wetgeving en regelgeving nu te voorkomen.”
Data is niet neutraal
Een van de problemen is de inzet van AI om besluitvorming te automatiseren dat direct effect heeft op het leven van mensen. De data waar het systeem mee gevoed wordt, is niet neutraal. Het is een selectie, een abstractie van de echte wereld. Data is vaak onvolledig en kan leiden tot uitsluiting, discriminatie en misinterpretatie. De toeslagenaffaire is daar een goed voorbeeld van. En het voorbeeld van de Top600 waarbij onschuldige kinderen op basis van datasets worden geïdentificeerd als potentiële criminelen. Daarnaast zie je manipulatie via dark patterns en real-time bidding. Kijk maar naar je sociale media tijdlijn. Het zijn mechanismen die ons verleiden om online dingen te doen of te kopen en we krijgen hierdoor steeds extremere informatie te zien. Deze systemen kunnen voorspellen wanneer we kwetsbaar zijn voor een simpele aankoop of beïnvloedbaar voor een politieke opinie. “Op deze technologie hebben we geen vat, ze zijn niet transparant en worden te pas en te onpas gebruikt. Dat is zeer schadelijk voor onze democratie.”
Gunay Uslu op werkbezoek bij Waag Futurelab

Impact maken door publieke waarden in technologie op de agenda te krijgen

In december 2024 is het dertig jaar geleden dat Waag Futurelab startte met het zoeken naar antwoorden op de grote maatschappelijke vraagstukken rondom technologie. “We waren er erg vroeg bij. Het heeft lang geduurd om de publieke waarden in technologie op de agenda te krijgen, maar ik heb het gevoel dat we toch aardig wat impact maken. We dragen bij aan PublicSpaces, waarin maatschappelijke en culturele organisaties samen werken aan alternatieven voor Big Tech."
"We adviseren overheden en hebben het burgermeetnetwerk ‘Hollandse Luchten’ opgezet. Daarnaast helpen we bibliotheken met maakplaatsen en digitaal burgerschap. En verkennen we met kunstenaars en wetenschappers nieuwe technologie als AI, quantum en biotechnologie. Het maandelijkse publieksprogramma en het Academy programma hebben veel impact. En ik ben natuurlijk heel trots op de samenwerking met de HvA. We hebben een goede start gemaakt en dit bouwen we de komende jaren verder uit.”
Marleen Stikker (1962) is directeur van Waag Futurelab in Amsterdam. Ze is een van de oprichters van De Digitale Stad. Daarnaast is zij Professor of Practice Digitalisering aan de HvA.

*Generatieve AI is een vorm van kunstmatige intelligentie waarmee iemand automatisch teksten, afbeeldingen, audio en andere content creëert.