Je dacht dat je veilig was met slimme technologie, maar dan duikt er een fout op waar je slapeloze nachten van krijgt. Onlangs kwam er in Brescia een zaak aan het licht waarbij kunstmatige intelligentie (AI) ernstige fouten maakte in officiële juridische documenten. Dit is niet zomaar een typefout; dit zijn verzinsels die in een rechtszaak belanden. Je leest dit nu omdat de grens tussen wat echt is en wat de machine bedacht heeft, dunner wordt dan de meeste mensen beseffen.

Wanneer de algoritmes 'hallucineren'

Wat is die 'hallucinatie' van de AI waar iedereen het nu over heeft? Simpel gezegd: de machine genereert informatie die er volkomen geloofwaardig uitziet, maar feitelijk compleet verzonnen is. Wij zagen dit recent bij de Orde van Advocaten van Brescia, na meldingen die daar binnenkwamen. De voorzitter, advocaat Giovanni Rocchi, bevestigde dat dit de eerste keer was dat écht een AI-hallucinatie in een officieel justitieel stuk verscheen.

Het gevaar zit hem in de precisie. Een AI kan een niet-bestaande bron citeren, een verjaardatum faken, of erger nog, een rechterlijke uitspraak verzinnen die nooit heeft plaatsgevonden.

De AI verzonnen een rechtszaak: wat dit betekent voor jouw dossiers - image 1

Waarom dit in de rechtbank een ramp is

Wanneer je een nieuw recept probeert, is een mislukte cake vervelend. Maar als een AI een fout maakt in een strafzaak, kunnen de gevolgen veel groter zijn. Denk aan echte mensen, echte procedures en mogelijk zelfs strafrechtelijk relevante situaties die gebaseerd zijn op lucht. Je kunt je voorstellen hoe mijn collega's in de advocatuur hier nerveus van worden.

Ik merkte in mijn praktijk dat veel mensen denken: "De computer liegt niet." Maar dat is precies wat er gebeurt. De AI is getraind op enorme hoeveelheden data, maar als de bronnen onvolledig zijn of als het model een associatie legt die er niet is, creëert het een eigen, foutieve realiteit.

De menselijke controle blijft cruciaal

De les van Brescia is helder: we kunnen en moeten AI niet negeren. De technologie zal blijven komen, net als de introductie van de digitale fax ooit. Maar het moet met gezond verstand worden toegepast, binnen de wettelijke kaders.

De AI verzonnen een rechtszaak: wat dit betekent voor jouw dossiers - image 2

Wat we nu nodig hebben, is een gedeelde 'AI-cultuur' onder juristen en rechters. Het is alsof je een nieuwe, krachtige boormachine krijgt; je hebt de handleiding nodig én je moet weten wanneer je hem beter niet op de hoogste stand zet.

  • Controleer bronnen dubbel: Als de zaak te mooi klinkt om waar te zijn, is de kans groot dat de AI hem heeft verzonnen.
  • Wees sceptisch over citaten: Controleer officiële verwijzingen extern, zelfs als de AI ze in de tekst plakt.
  • Gebruik AI als assistent, niet als vervanger: Laat het voorbereidend werk doen, maar de eindcheck is altijd van jou. Dit is net als boodschappen doen: je hebt de lijst nodig, maar je moet zelf nog controleren of je de juiste melk hebt gepakt.

Praktische tip: De 'Vier-Ogen-Regel' voor AI-documenten

Ik adviseer iedereen die met AI-gegenereerde verslagen werkt, de 'Vier-Ogen-Regel' te hanteren. Laat drie verschillende personen (of in ieder geval één collega) het AI-gegenereerde deel lezen die niet weet wat de AI precies heeft ingevoerd. Zij benaderen de tekst objectiever dan jij, die het proces kent.

Fouten in de rechtspraak zijn de meest schrijnende. Hoe denk jij dat wij de kwaliteit van AI-output in complexe sectoren zoals de juridische wereld het beste kunnen garanderen zonder de innovatie te stoppen? Deel je gedachten hieronder!