Het was de advocaat zelf die de aandacht vestigde op de foutieve ECLI-verwijzingen. Ze diende een ‘akterectificatie conclusie van antwoord’ in, waarmee ze een aantal van deze rechterlijke uitspraken liet verwijderen. Niet zonder reden, beschrijft de kantonrechter in zijn tussenvonnis: ‘In de conclusie van antwoord zijn acht uitspraken aangehaald. Eén ECLI-nummer bestaat niet en van de zeven andere uitspraken behoort het ECLI-nummer bij heel andere uitspraken dan omschreven in de conclusie van antwoord: bijvoorbeeld een echtscheidingsbeschikking en een strafzaak’.
Nadere uitleg
Deze stelselmatig verkeerde bronvermelding doet bij de rechter het sterke vermoeden rijzen dat de advocaat een AI-tool heeft ingezet en het product daarvan vervolgens niet heeft gecontroleerd. Ook bij de conclusie van antwoord van deze advocaat in een andere zaak werden dergelijke fouten ontdekt, stelt de rechtbank vast. In beide zaken kwam zij bovendien niet opdagen op zitting, waardoor geen opheldering kon worden verschaft. Daarom sommeert de kantonrechter de advocaat om alsnog nadere uitleg te geven over de waarschijnlijke inzet van een AI-tool.
Kwalijk
De wijze waarop ChatGPT of een ander AI-programma hier door de verdediging is toegepast, noemt de rechtbank ‘kwalijk’: ‘Dit schaadt de belangen van de cliënt en de andere procespartij kan daardoor op het verkeerde been worden gezet’. De wederpartij is in dit geval een woningcorporatie. Die heeft de zaak aangespannen tegen een huurder die zijn huurwoning zou onderverhuren, terwijl hij zelf drie koopwoningen bezit.
Meer toezicht
De schrobbering door de kantonrechter past in recente berichtgeving over enkele andere rechtszaken waarin advocaten door rechters op de vingers zijn getikt over een onjuist gebruik van AI-tools. De NOvA kwam eind vorig jaar met aanbevelingen voor een verantwoorde inzet van AI in de advocatuur. Ook kondigde het College van toezicht aan te gaan controleren of lokale dekens voldoende toezien op het gebruik van AI.