Twee advocaten moeten een AI-cursus volgen, omdat ze kunstmatige intelligentie onzorgvuldig hebben ingezet voor rechtszaken. Wouter Timmermans van de Orde van Advocaten heeft dit onlangs tegenover de NOS gezegd.
Argumenten
De betreffende advocaten gebruikten een AI-programma om hun argumenten bij de rechter te onderbouwen. Die argumenten bevatten echter verwijzingen naar eerdere uitspraken die op iets anders betrekking bleken te hebben, of niet bestonden.
Geen controle
“Het kwalijkste dat ik heb gezien, is dat advocaten klakkeloos overnemen wat AI produceert, en dat vervolgens indienen in de rechtszaal zonder het te controleren,” zegt Timmermans. “Wat AI produceert, leest vaak heel logisch. Ook als het eigenlijk onzin is. Je kunt er niet 100 procent op vertrouwen dat die informatie klopt.”
Bronnen
Rechters in Arnhem, Rotterdam en Groningen vermoedden de afgelopen maanden al eerder dat advocaten verkeerd omgaan met chatbots zoals ChatGPT. “Als advocaat kun je niet zomaar bronnen noemen die niet bestaan. Dit soort AI-programma’s schrijven teksten die niet altijd kloppen. Je moet dat altijd controleren. Dat niet doen is ernstig,” stelt Lodewijk Smeehuijzen, hoogleraar aan de Vrije Universiteit in Amsterdam.