Stel je voor: twee jaar aan onderzoek, lesmateriaal en subsidieaanvragen, plotseling weg door één verkeerde klik. Dit is geen hypothetisch scenario, maar de nachtmerrie van professor Marcel Bucher uit Keulen, wiens bijna volledige werk door een instelling in ChatGPT werd gewist. Dit incident is een ijzingwekkende waarschuwing voor iedereen die dagelijks met AI-tools werkt

Als je AI gebruikt voor professionele taken – of je nu ZZP'er bent in Nederland of een docent op een hogeschool – moet je dit direct lezen. Wat Bucher overkwam, leert ons dat de ‘privacy’-instellingen van deze tools gevaarlijker zijn dan je denkt. Het draait allemaal om een simpele schakelaar die je misschien ook al hebt omgezet.

De valkuil: Twee jaar werk naar de digitale prullenbak

Professor Bucher probeerde naar eigen zeggen alleen de optie uit te schakelen die OpenAI toestaat zijn chats te gebruiken om de modellen verder te trainen. Een logische stap voor privacybewuste gebruikers, toch? Fout. Volgens zijn versie van de gebeurtenissen, zoals beschreven in Nature, resulteerde deze actie in het permanent wissen van al zijn historische chats.

Zijn belangrijkste werk lag daar: concepten voor publicaties, gedetailleerde lesplannen en cruciale data voor lopende projecten. Zijn contact met OpenAI leverde volgens hem niets op; de data bleken onvindbaar, verwijderd volgens een strikt 'Privacy by Design'-principe. Voor Bucher was de conclusie hard: "Als één klik jaren werk onherroepelijk kan wissen, is ChatGPT niet veilig genoeg voor professioneel gebruik."

De verborgen knop in ChatGPT die twee jaar werk van een professor wist - image 1

Wat je NU moet controleren in je instellingen

Wat veel mensen, zeker als ze net ChatGPT ontdekten tijdens de laatste lockdown, over het hoofd zien, is dat de tool standaard veel informatie opslaat en gebruikt. Je kunt dit zien als een soort digitale archiefkast die soms zonder waarschuwing wordt geleegd.

Het meest ironische in dit verhaal? ChatGPT biedt wel degelijk een back-upoptie, maar velen weten niet hoe ze deze moeten vinden of gebruiken. Dit is hoe je voorkomt dat dit jou overkomt:

  • Ga naar ‘Settings’ (Instellingen) in je account.
  • Zoek naar het gedeelte 'Data Controls' (Databeheer).
  • Je ziet de optie 'Export data' (Gegevens exporteren).

Als je hierop klikt, stuurt OpenAI je een ZIP-bestand met al je conversaties naar je e-mail. Afhankelijk van hoeveel je hebt getypt, kan dit even duren. Die link is overigens maar 24 uur geldig – dus download het bestand meteen als je het ontvangt!

De nuance van de AI-wereld: Zorgt een update voor een eerdere fout?

Toen ik dit scenario zelf nabootste, gebeurde er iets anders. Toen ik de dataset-training uitschakelde, bleven mijn oude chats gewoon staan. Toen ik specifiek koos voor 'Alle chats verwijderen', kreeg ik een expliciet waarschuwingsvenster dat ik moest bevestigen.

De verborgen knop in ChatGPT die twee jaar werk van een professor wist - image 2

Dit komt waarschijnlijk doordat het incident van de professor al in augustus plaatsvond. De tech-giganten passen hun interfaces vaak aan. Wat toen een subtiele instelling was, is nu misschien een duidelijke pop-up, net zoals je bij veel Nederlandse webshops nu eerst drie keer moet klikken om die dure verzendkosten écht te accepteren.

De les is duidelijk: vertrouwen op de standaardinstellingen van tools die tijdslijnen van jaren kunnen bevatten, is amateursport.

De onmisbare gewoonte voor de moderne professional

Zie je ChatGPT als een gratis, lokaal kantoor zonder slot op de deur. Je werkt er prima snelle notities uit, maar bewaar je de belangrijkste blauwdrukken? Nee. Voor cruciale data geldt: als het niet op je eigen beveiligde server staat, bestaat het niet relatief voor de lange termijn.

Maak er een gewoonte van: exporteer je belangrijkste AI-output minstens ééns per kwartaal, net zoals je de belastingaangifte in maart controleert. Het kost je een halfuurtje, maar je koopt er potentieel twee jaar aan werk mee terug.

Ik ben benieuwd: hoe serieus nemen jullie de data-exportfunctie van jullie favoriete AI-tools? Hebben jullie al eens een cruciaal bestand uit de cloud moeten redden?