Het leek de ultieme studietool: razendsnelle antwoorden, samenvattingen en zelfs opzetjes voor essays. Maar een recente ontdekking onder scholieren in Griekenland toont de rauwe waarheid: onbeheerd vertrouwen in ChatGPT kan averechts werken. Dit is geen verhaal over verboden apps; het gaat over hoe slimme gebruikers zich aanpassen nadat ze geconfronteerd zijn met de harde realiteit van AI-hallucinaties.
Veel studenten hier in Nederland vertrouwen blindelings op de output van generatieve AI, net als hun leeftijdsgenoten in Athene. Echter, een groep leerlingen ontwikkelde na een harde les over foutieve AI-informatie een verrassend conservatieve strategie. Ze beperken het gebruik nu bewust tot hun eigen kennisterrein. Dit mechanisme, dat experts een 'epistemische waarborging' noemen, toont aan dat kritische zelfregulering de sleutel is tot effectief AI-gebruik.
De harde les: Wanneer de AI liegt
Onderzoekers gaven 109 Griekse middelbare scholieren toegang tot een geavanceerd AI-model. Het doel? Ze moesten de AI taken laten uitvoeren, variërend van cv-opbouw tot het maken van quizvragen. Cruciaal was dat de onderzoekers de AI zó configureerden dat deze met opzet feitelijke onjuistheden invoegde over geschiedenis en wetenschap.
De leerlingen ontdekten de fouten door ze zelf te controleren. Wat volgde was een gedragswijziging die beleidsmakers verraste: ze besloten de AI simpelweg niet meer te vertrouwen over onderwerpen die nieuw voor hen waren.
De Zelfbeschermingsstrategie: De 'Bekende Zone'
In diepte-interviews gaven veel respondenten aan dat ze hun AI-zoekgedrag drastisch hadden veranderd. Ze vergelijken de AI nu met een snelle assistent, niet met een alwetende bron.

- Ze gebruiken AI alleen om informatie te structureren in plaats van te genereren.
- Vragen over onderwerpen waar ze zelf weinig van wisten, werden geschrapt.
- De focus verschoof naar het gebruiken van AI voor taken die ze zelf makkelijk konden verifiëren.
Dit is geen afwijzing van de technologie. Het is een actieve poging om de controle terug te pakken. Ze eisen een soort 'epistemische autonomie' – de bevoegdheid om te weten wat waar is – terug van de machine.
Tussen lof en angst: Hoe studenten AI écht zien
Het is fascinerend te zien dat ondanks deze wantrouwende tactiek, de algemene houding tegenover AI positief blijft. De gemiddelde score op de tevredenheidsschaal ligt boven het gemiddelde. Studenten zien de efficiëntieverbeteringen en de directe feedback die ze krijgen, vaak sneller dan een menselijke docent kan bieden.
Maar hier zit de paradox, en dit is belangrijk voor iedereen die met AI werkt: positieve waardering staat los van diepgewortelde ongerustheid.
De onzekerheid over onze toekomst
Terwijl de leerlingen vonden dat AI hun leven makkelijker maakt, lieten de angstmetingen een ander beeld zien. De angst om de leerstof niet meer te beheersen was mild. De échte zorg lag elders:

- Banenvervanging: Angst voor het uit handen nemen van menselijke taken scoorde het hoogst.
- Luie Geest: Velen waren bang dat de constante beschikbaarheid van snelle oplossingen hen lui zou maken.
Interessant is dat de leerlingen die al ervaring hadden met ChatGPT, positiever waren dan de nieuwkomers. Dit suggereert dat een gecontroleerde eerste kennismaking met de beperkingen van AI de angst kan verminderen, mits deze begeleid is.
Praktische Tip: Zelf de ‘AI-Filter’ Instellen
Dit nieuwe gedrag van de studenten geeft ons een concrete aanpak voor iedere werkende professional die worstelt met de betrouwbaarheid van AI:
De '40%-Check' Regel: Vraag alleen informatie aan de AI over onderwerpen waar je al minstens 40% van de basisinformatie beheerst. Gebruik de AI vervolgens als een klankbord of een snelle samenvatter voor de overige 60%. Als je niets weet over het onderwerp, gebruik dan traditioneel onderzoek. Je fungeert hiermee als een menselijke 'foutcorrector' en behoudt de regie over de inhoud.
Want hoewel de interfaces intuïtief zijn – net als een nieuw social media platform – is het navigeren door de fouten van de AI mentaal uitputtender dan het zelf opzoeken. De studenten hebben ontdekt dat AI de meest krachtige tool is, mits je de onbetrouwbare conclusies van de machine voorbij filtert.
Wat denk jij? Is de angst voor baanverlies terecht, of kunnen we AI slim genoeg maken zodat deze angst verdwijnt? Laat het ons weten in de reacties!