Heb je ooit gehoord van die schokkende rechtszaak waar een door AI gegenereerd bewijsstuk bijna een hele zaak op zijn kop zette? De industrie reageert met zogenaamde 'AI Detectors', software die zou moeten bepalen of een plaatje door een mens of een machine is gemaakt. Maar ik kreeg de kriebels toen ik me afvroeg hoe betrouwbaar die digitale speurhonden werkelijk zijn. Daarom besloot ik de proef op de som te nemen met een compleet nieuw AI-model dat nog niet op de radar stond.

De ultieme test: 'Nano Banana Pro' en een bizarre prompt

Om de detectoren écht wakker te schudden, gebruikten we de beeldgenerator 'Nano Banana Pro' van Google Gemini. Mijn prompt was opzettelijk een beetje scheef: "Een vrouw in een vechthouding die een banaan triomfantelijk naar de lucht steekt, met op de achtergrond een typisch Nederlands (of Belgisch, net wat je leest) stadsgezicht vol onverschillige mensen."

Het eerste voordeel voor ons was het model zelf. Generatoren zoals Midjourney en DALL-E 3 hebben 'vingerafdrukken' die de software intussen redelijk goed kent. Omdat Nano Banana Pro nieuw is, hadden de detectoren geen trainingsdata om op terug te vallen. Dat is alsof je een oude krakkemikkige sleutel probeert, maar dan voor digitale sloten.

Ronde 1: Zelfs een watermerk hielp niet

In de eerste fase lieten we het beeld ongemoeid. We namen het PNG’tje, converteerden het naar een JPG en verwijderden alle metadata. Cruciaal: het Gemini-watermerk stond nog prominent in beeld. Je zou denken: een duidelijk AI-logo is een gratis punt voor de detector, toch?

Zo makkelijk misleid je KI-detectoren met simpele nabewerking - image 1

De uitslag was teleurstellend. Twee van de zes geteste tools waren al overtuigd dat dit onmogelijk door AI gemaakt kon zijn. Hoe kan dat? Kennelijk zijn sommige detectoren zo gefocust op de *oude* patronen, dat ze de afwezigheid van die patronen niet als een alarmsignaal zien.

Ronde 2: De digitale gum als wapen

Vervolgens moest het verraadende stempel weg. Ik gebruikte de ingebouwde ‘AI-gum’ van de standaard Windows Foto’s-app—iets wat iedereen op zijn laptop heeft staan, net zo makkelijk als het smeren van een boterham met pindakaas.

  • Na deze minimale ingreep vertrouwde één extra detector het beeld niet meer.
  • Maar, en dit is de nuance: een andere detector (Illuminarty) *verhoogde* juist de AI-score op dit bewerkte beeld.

Kortom: na twee simpele stappen was de waarschijnlijkheid dat de vrouw met de banaan echt was, bij drie van de zes tools gezakt naar onder de 30%. Dit begint al te voelen als een gevaarlijk spel.

Ronde 3: De perfectie vervangen door imperfectie

De meest voorkomende klacht over AI-creaties is dat ze ‘te glad’ zijn—perfecte kleurgradaties, te uniform korrelpatroon. Om de detectoren écht te laten denken dat we met een camera uit de jaren '90 te maken hadden (en niet met een moderne, dure spiegelreflex), moesten we digitale onvolkomenheden toevoegen.

Ik dook in een bewerkingsprogramma dat je voor minder dan een tientje op een Vlaamse rommelmarkt zou kunnen vinden, en paste het volgende toe:

Zo makkelijk misleid je KI-detectoren met simpele nabewerking - image 2

  • Ik simuleerde lichte lenscorrectie (gemaakt om optische foutjes te maskeren).
  • Ik voegde chromatische aberratie toe (die gekke kleurscheidingen die je soms aan de randen van een foto ziet).
  • Ik speelde met de ruisonderdrukking om het 'AI-ruisprofiel' te breken.

Deze hele operatie kostte me, inclusief het zoeken naar de juiste schuifjes, minder dan vijf minuten. Het doel was simpel: laat het eruitzien als een foto die door een echt, onvolmaakt apparaat is gemaakt.

Het onvermijdelijke resultaat

Na deze flinterdunne laag van ‘digitale viezigheid’ stortte het hele systeem in. Alle zes de geteste detectiediensten gaven een AI-waarschijnlijkheid van **onder de 5 procent** af. Voor de software was de vrouw met de banaan plotseling een authentieke, menselijke creatie.

Een vals gevoel van veiligheid

Ons experiment toont aan hoe broos de huidige generatie AI-detectoren is. Als een paar simpele klikken met algemeen beschikbare software ervoor zorgen dat een 95% zeker AI-beeld onterecht als origineel wordt bestempeld, dan creëren we een gevaarlijk vals gevoel van veiligheid. Dit is cruciaal in bijvoorbeeld de journalistiek of bij het beoordelen van bewijsmateriaal.

Wat denk jij? Moeten we stoppen met vertrouwen op deze detectoren, of zijn er betere manieren om AI-content te herkennen in de toekomst?