De beloftes rondom de nieuwe generatie AI klinken vaak te mooi om waar te zijn. We horen dat modellen als GPT-5 binnenkort ons werk overnemen en intelligentie op doctoraatsniveau bezitten. Maar een recente test met een simpel spelletje onthult dat deze giganten nog steeds struikelen over de basis.
Als je dacht dat de nieuwe AI-modellen onfeilbaar waren, sta je op het punt om je mening te herzien. Een emeritaat professor legde GPT-5 een slinkse valstrik voor die zelfs een basisschoolleerling zou doorzien. Het resultaat? Een hoop blabla en nul begrip.
De 90-graden test: Makkelijker dan je denkt
De kern van het probleem ligt vaak niet in de complexiteit van de taak, maar in het vermogen van de AI om visuele of conceptuele verschuivingen te begrijpen. Professor Gary Smith, bekend van zijn tests van taalmodellen, zette GPT-5 op de proef met een gewijzigde versie van ‘Boter, kaas en eieren’ (Tic-Tac-Toe).
De simpele variant: 90 graden draaien
Wat deed hij? Het hele speelveld 90 graden naar rechts draaien. Voor ons, mensen, verandert dit absoluut niets aan de winkansen of de patronen. Het is puur cosmetisch, net als bij het omdraaien van een notitieblok dat je op tafel hebt liggen. Een kind zou dit snappen.
Maar voor GPT-5 was dit blijkbaar een existentiële crisis. Het model begon direct te zweten en produceerde een reeks verwarrende verklaringen die nergens op sloegen.

De digitale verwarring van GPT-5
Wat volgde was een fascinerende demonstratie van hoe AI ver boven zijn stand leeft, vergelijkbaar met een student die probeert een zes te halen met alleen maar veelgebruikte, maar niet-relevante termen.
- Eerst beweerde GPT-5 dat de draaiing psychologisch verwarrend kon zijn voor mensen. Wat onzin is, want de draai gebeurt vóór de eerste zet.
- Verder verzon het model dat de verandering ervoor zou zorgen dat spelers hoeken en randen verkeerd zouden inschatten.
- Het model raakte verstrikt in lange tirades over de verschillen tussen een draai van 90 graden versus 180 graden – ongevraagd en irrelevant advies.
De AI simuleert zelfvertrouwen; het levert geen bewijs. Dat is de harde conclusie na het lezen van de volledige transcriptie van de test.
Visuele mislukking
De situatie werd nog gênanter toen GPT-5 aanbood om de draaiingen grafisch weer te geven. De gegenereerde beelden waren een chaos van fouten en tekenproblemen. Dit bevestigt de aanname: waar het complexe taalbegrip lijkt te werken, faalt de basislogica in de praktijk.

In ons dagelijks leven in Nederland of België, waar we AI gebruiken voor complexe rapporten of om de beste route door de spits te plannen, negeren we dit soort feilen vaak. Maar Smith wijst terecht op de oppervlakkigheid achter al die vloeiende zinnen.
Leerpunten voor de Nederlandse AI-gebruiker
Dit incident dient als een belangrijke waarschuwing voor iedereen die GPT-5 of soortgelijke modellen inzet voor kritieke taken. De toon van GPT-5 was opvallend charmant – het complimenteerde de gebruiker zelfs bij de meest standaard invoer. Dit beleid om AI ‘warmer en vriendelijker’ te maken, maskeert de fouten.
De gouden regel: Vertrouw nooit blindelings op een AI die je iets vertelt wat je zelf niet kunt controleren.
De professor trok een scherpe vergelijking: GPT-5 lijkt op een overtuigende, hardwerkende student die geen flauw benul heeft van de stof, maar die met veel mooie woorden probeert om de leraar (de gebruiker) te overtuigen. Het is Sam Altman zelf in softwarevorm: altijd overtuigd, vaak fout.
Wat denk jij? Heb jij ook weleens gemerkt dat AI onnodig ingewikkeld doet over iets simpels? Laat het ons weten in de reacties!