Advocaten gebruiken steeds vaker AI (Artificial Intelligence) in hun rechtszaken, maar niet altijd op de juiste manier. Uit drie recente rechtszaken blijkt dat kunstmatige intelligentie juist tot misleidende informatie kan leiden als er niet zorgvuldig mee wordt omgegaan. Rechters hebben nu al in meerdere Nederlandse rechtszaken ontdekt, dat advocaten verwijzingen naar eerdere uitspraken indienden die niet klopten of niet eens bestonden. Twee van de drie dienen een AI-cursus te gaan volgen, meldt Wouter Timmermans van de toezichthouder op advocaten tegen de NOS.

Hoe advocaten AI misbruiken
Drie advocaten hebben AI-hulpmiddelen zoals ChatGPT gebruikt tijdens rechtszaken in Arnhem, Rotterdam en Groningen, om juridische teksten te genereren of om stukken te ondersteunen, meldt de NOS. In een recente zaak in december ging dit nog een stapje verder. De rechtbank in Den Bosch publiceerde toen dat een man zijn gehele zaak met hulp van AI bleek te hebben onderbouwd. Deze informatie was gebaseerd op eerdere uitspraken die onjuist of zelfs compleet fictief waren. De rechter noemde de aangeleverde documenten ‘juridisch broddelwerk’. Sterker nog, de rechter oordeelde dat de man misbruik maakte van het recht door incorrecte AI-adviezen in te dienen.
Consequenties volgen: AI cursus
Door dit onzorgvuldige gebruik van AI hebben deze advocaten inmiddels al officiële waarschuwingen gekregen en moeten twee van hen een verplichte cursus volgen over verantwoord AI-gebruik. Wouter Timmermans, toezichthouder op advocaten, ziet regelmatig dat AI-teksten logisch lijken, maar feitelijk onzin zijn. Hij zegt hierover het volgende: “Het kwalijkste is dat advocaten klakkeloos overnemen wat AI produceert en dat bij de rechter indienen. AI-teksten lezen logisch, ook als het onzin is. Je kunt er niet volledig op vertrouwen.”
AI is geen vervanging voor een advocaat
AI-tools kunnen helpen bij het maken van samenvattingen, het ophalen van informatie uit grote hoeveelheden documenten of bij het vinden van relevante juridische literatuur, uitsluitend onder toezicht van een menselijke jurist. Dat betekent dat AI in de advocatuur dus zeker geen vervanging is voor menselijke expertise. Er is inmiddels nog geen advocaat veroordeeld door de tuchtrechter voor het misbruiken van AI.
Hoe AI wél gebruikt kan worden
Hoewel advocaten worden gewaarschuwd voor verkeerd gebruik, kan AI op een verantwoorde manier wél een nuttig hulpmiddel zijn. Ongeveer twee jaar geleden kwam het voor het eerst voor in Nijmegen, waar kantonrechter René van Acht zijn uitspraak deed met behulp van ChatGPT. Experts keken hier kritisch naar en vroegen zich af of dit wel de juiste manier was. Zowel een rechter als een strafrechtadvocaat in Nijmegen dienen hier een cursus te moeten volgen. Experts adviseren om AI vooral in te zetten voor onderzoek, het ordenen van informatie en het versnellen van routinetaken. De controle moet altijd bij de gebruiker zelf blijven. De verwachting is dat het aantal meldingen en waarschuwingsgesprekken zal toenemen naarmate meer advocaten AI-middelen gebruiken.