Kunt u zien of een video door kunstmatige intelligentie is gemaakt? Weet u hoe u zichzelf beschermt tegen oplichting die gebruikmaakt van AI? En bent u zich bewust van de privacyrisico's bij populaire AI-trends, zoals het maken van geanimeerde versies van jezelf in een bepaalde filmstijl?
Dergelijke vragen horen vandaag bij het publieke debat over technologie en digitale veiligheid. Een opvallende stem in dat gesprek is de Braziliaanse Catharina Doria, een specialist in AI-leesvaardigheid (AI literacy) die viraal ging met toegankelijke video's over hoe je risico's van kunstmatige intelligentie herkent en beperkt.
Van academische nieuwsgierigheid naar publieke uitleg
Catharina Doria begon haar interesse in technologie tijdens haar studie communicatie, nadat ze het boek Algorithms of Oppression van Safiya Noble las. Het zette haar aan tot een carrièreswitch: ze wilde ervoor zorgen dat AI-technologieën eerlijk en bruikbaar zijn voor iedereen. Ze behaalde een scriptie die werd bekroond en vervolgde met een master in datawetenschap, waarin ze de technische kant van machine learning onder de knie kreeg.
Na haar studie werkte ze voor een Amerikaans bedrijf gericht op AI-governance, waar ze wereldwijd ervaring opdeed met het opzetten van beschermingen en beleidskaders. Die achtergrond combineert ze nu met het maken van content: ze richt zich erop complexe thema's bereikbaar te maken voor een breed publiek.
Waarom haar video's opvallen
In minder dan een jaar wist Doria meer dan 300.000 volgers op Instagram te verzamelen; in de eerste vier maanden haalde ze al bijna 200.000 volgers. Sommige van haar clips overschrijden zelfs de 1 miljoen weergaven. Haar eerste virale video daagde kijkers uit te raden welk fragment door AI was gemaakt en welk fragment echt was — een ogenschijnlijke simpele test die laat zien hoe moeilijk onderscheid soms is. Die eerste video kreeg meer dan 60.000 weergaven en leidde tot een serie vergelijkbare uitlegvideo's.

Doria benadrukt dat het belangrijk is om het denkvermogen te trainen: "Je moet je brein trainen om jezelf tegen deze technologie te beschermen," zegt ze in haar content. Ze behandelt uiteenlopende onderwerpen, van deepfakes en AI-trends tot de onverwachte privacygevaren van slimme huishoudelijke apparaten.
Een bekend voorbeeld uit haar reeks is een waarschuwing over robotstofzuigers die gegevens kunnen verzamelen en zelfs beeldmateriaal kunnen vastleggen. In een van haar posts zegt ze: "Vertrouw je robotstofzuiger nooit volledig! Misschien gebeurt er niets. Maar misschien ook wel." Zulke waarschuwingen zijn bedoeld om bewustzijn te vergroten zonder te panikeren.
Persoonlijke motivatie en aanpak
Al op zestien ontwikkelde Doria een app om gevallen van straatintimidatie te melden, nadat ze zelf zo'n ervaring had gehad. Die betrokkenheid bij 'technology for good' heeft zich doorgetrokken naar haar huidige werk met AI-ethiek. Ze verlaat geen onderwerp in vakjargon, maar kiest voor een empathische, laagdrempelige stijl: vriendelijk, praktisch en oplossingsgericht.
Haar content is meertalig: ze publiceert in zowel Engels als Portugees, vaak met ondertiteling. Daardoor bereikt ze een internationaal publiek — volgers uit Brazilië, de Verenigde Staten, Spanje, Duitsland, India en meer. Recent trok ze in één maand ongeveer 7,1 miljoen weergaven op haar video's en ontving ze honderden duizenden reacties, wat illustreert dat verwarring rond AI alle leeftijden en achtergronden treft.

Belangrijke thema's die ze aansnijdt
- AI-veiligheid: hoe systemen misbruikt kunnen worden en welke stappen gebruikers kunnen nemen om zich te beschermen.
- Privacy en data: welke informatie door bedrijven wordt verzameld en hoe dat kan leiden tot onvoorziene risico's.
- Transparantie en regelgeving: waarom wetten zoals de EU AI Act noodzakelijk zijn om bedrijven tot verantwoording te roepen.
- Ethische grenzen: waarom het problematisch is om overleden personen realistisch via AI te 'herleven' — een onderwerp dat speelde rond beelden die van Robin Williams werden gemaakt.
Doria pleit ervoor dat letrering in AI geen verantwoordelijkheid is van één partij alleen: bedrijven, overheden en communicators moeten samenwerken. Ze merkt op dat veel bedrijven AI-tools snel hebben ingevoerd zonder werknemers goed te informeren over risico's — bijvoorbeeld dat gesprekshistorie gebruikt kan worden om modellen te trainen, of dat vertrouwelijke informatie niet zomaar in chattools geplaatst mag worden.
| Feit | Details |
|---|---|
| Volgers op Instagram | Meer dan 300.000 in minder dan een jaar |
| Top bereik | Enkele video's halen meer dan 1 miljoen views |
| Korte termijn views | Circa 7,1 miljoen weergaven in één maand |
| Vroeg werk | App om seksueel straatintimidatie te melden (op 16-jarige leeftijd) |
Praktische benadering: geen paniek, wel actie
Haar stijl balanceert tussen waarschuwen en empoweren. Ze zegt dat alarmisme contraproductief is: beter is het om mensen concrete handvatten te geven. Bijvoorbeeld: controleer privacy-instellingen, denk twee keer na voordat u foto’s deelt in AI-trends, en begrijp dat algoritmes kunnen bepalen wat u ziet en hoe uw data gebruikt wordt. Die aanpak verandert angst in concrete stappen die iedereen kan nemen.
FAQ
- Wat leert Catharina Doria mensen over AI?
Ze legt uit hoe AI werkt, welke risico's er zijn (deepfakes, privacy, dataverzameling) en geeft praktische tips om veilig om te gaan met technologie.
- Wie bereikt haar boodschap?
Haar publiek is internationaal en leeftijden variëren sterk; jongeren, ouders en ouderen volgen haar om te leren herkennen wat echt is en hoe ze zichzelf beschermen.
- Wat is haar belangrijkste advies?
Verander angst in actie: leer de basis, stel privacy-instellingen scherp en deel geen beelden in trends zonder na te denken over mogelijke gevolgen.
- Waarom is regelgeving belangrijk volgens haar?
Zonder wetgeving is het onwaarschijnlijk dat grote bedrijven vrijwillig volledige transparantie zullen bieden; regels zoals de EU AI Act kunnen die transparantie afdwingen.