Je gebruikt ChatGPT vast weleens om een lastige e-mail aan de huisbaas over dat lekkende dak op te stellen. Of misschien om een eerste ruwe versie van een tekst te genereren. Het is een handige assistent, toch? Maar wat als die assistent plotseling besluit dat al je werk zomaar weg is? Afgelopen maand werd een professor geconfronteerd met dit nachtmerriescenario. De boodschap is duidelijk: we zijn te makkelijk geworden met het toevertrouwen van cruciaal werk aan AI.

Marcel Bucher, hoogleraar Plantenwetenschappen aan de Universiteit van Keulen, deelde deze schokkende ervaring in een opinieartikel voor vakblad Nature. Hij verloor niet zomaar een paar notities; de AI had hem bijna twee jaar aan gestructureerd academisch werk ontnomen. In Nederland bouwen we ook hard aan onze carrière; denk aan je hypotheekaanvragen of belangrijke projectdocumenten. Dit verhaal is dus een directe waarschuwing voor ons allemaal.

De fatale klik die alles deed verdwijnen

Hoe kon dit gebeuren? De professor probeerde een eenvoudige test uit. Hij wilde weten wat er gebeurt als hij OpenAI geen toestemming geeft om zijn data te gebruiken voor training. Hij schakelde de functie voor gegevensdeling uit.

Het resultaat was veel drastischer dan hij had verwacht. Zonder enige waarschuwing of de mogelijkheid om terug te keren, waren zijn sessies en alle bijbehorende data nergens meer te bekennen. Een compleet lege pagina.

Waarom experts hun onderzoek stopten met invoeren in ChatGPT - image 1

Dit toont een fundamenteel probleem aan bij het gebruik van gratis of basis-AI-tools: ze zijn niet ontworpen als een veilige back-up voor je leven.

Wat was er precies weg?

Bucher was alles kwijt wat hij gedurende twee jaar had opgebouwd en ingevoerd. Denk hierbij aan:

  • Uitgebreide onderzoeksdata en analyse-overzichten.
  • Concepten voor publicaties en manuscripten.
  • Aanvragen voor subsidies en beurzen.
  • Uitgewerkte colleges en tentamens.

De valkuil van de 'AI-assistent'

De reacties op sociale media waren tweeledig. Sommigen vroegen zich af waarom hij niet gewoon harde kopieën maakte – een angst die velen van ons nog steeds hebben als we aan onze digitale archieven denken. Anderen waren geschokt door hoe diep AI al in het dagelijkse werk van academici is doorgedrongen.

Waarom experts hun onderzoek stopten met invoeren in ChatGPT - image 2

Bucher verdedigde zich met het argument dat hij de AI slechts als een assistent gebruikte, net zoals je een collega om een snelle check zou vragen. Maar hier zit de nuance, en die is cruciaal voor iedereen die dagelijks met tools als ChatGPT werkt, zelfs als je alleen je boodschappenlijst plant.

De kunstmatige intelligentie werkt als een koffiefilter voor data: het verwerkt wat je geeft, maar het is geen kluis om het in op te bergen.

Wat je nu direct moet doen voor je eigen werk

Dit incident is een koude douche voor iedereen die denkt dat 'uitloggen' genoeg is. Je wilt niet dat die cruciale tekst over je renovatieplannen in Amsterdam-Noord door zo'n dip verdwijnt. Hier zijn de concrete stappen om die data te beschermen:

  1. Gebruik AI voor concepten, niet voor eindproducten: Voer nooit informatie in die je niet kunt missen of die strikt vertrouwelijk is. Gebruik het voor de eerste twee zinnen, niet voor het hele beleidsplan.
  2. De 'Kopieer en Plak' regel: Na elke belangrijke interactie met de AI, kopieer je de output direct naar een lokaal bestand (Word, Google Docs, Notes). Maak er een automatisme van, alsof je na het parkeren je autosleutels op een vaste plek legt.
  3. Controleer de instellingen in de Nederlandse context: Ga in je instellingen kijken of je *Privacy Mode* of *Data Opt-Out* écht is geactiveerd. Standaardinstellingen zijn er voor het gemak van het bedrijf, niet voor jouw veiligheid.
  4. Behandel AI als een onbetrouwbare stagiair: Je geeft een stagiair een taak, maar je controleert het werk en je bewaart het origineel. AI verdient niet meer vertrouwen dan dat.

Het verhaal van professor Bucher is een duur betaald lesje in digitale hygiëne. Bedenk twee keer wat je invoert. Hoe vaak heb jij de output van ChatGPT al direct in een belangrijk document geplakt zonder dit eerst elders op te slaan?