Introductie
Prof. dr. mr. André Janssen, hoogleraar Burgerlijk Recht aan de Radboud Universiteit, houdt zich al jarenlang bezig met de digitalisering van het recht. In zijn recente artikel “Rechterlijke adaptiviteit en het gebruik van Large Language Models (LLM’s) door de rechter”, geschreven samen met prof. dr. mr. Pietro Ortolani, onderzoekt hij de juridische, ethische en praktische vragen rond het gebruik van AI in de rechtspraak. Aan de hand van actuele voorbeelden, zoals het vonnis van de rechtbank Gelderland waarin ChatGPT werd gebruikt door de rechter. In die zaak heeft de rechter namelijk met behulp van ChatGPT de gemiddelde levensduur van zonnepanelen proberen vast te stellen en wat de gemiddelde prijs per kilowattuur aan elektriciteit op dat moment was. [1] Beide auteurs betogen dat de rechtspraak een adaptieve, maar behoedzame houding moet aannemen. Transparantie, rechtsstatelijkheid en mensenrechten blijven daarbij onmisbare uitgangspunten.
Kunt u iets vertellen over uzelf en over uw achtergrond?
Mijn naam is André Janssen, ik ben een Duitser, geboren in Kleef, vlak over de grens. Ik heb in Duitsland rechten gestudeerd en ik ben daar gepromoveerd. Ik heb daar mijn tweede proefschrift geschreven om daar hoogleraar te worden. Voor mijn promotietraject was ik tijdelijk in Nijmegen bij Bas Kortmann en in Oxford, en voor mijn tweede proefschrift was ik voor twee jaar in Turijn (Italië) en daarna was ik hoogleraar in Duitsland en Hong Kong. Sinds 2018 ben ik verbonden aan de Radboud Universiteit. Hier ben ik hoogleraar Burgerlijk Recht, met focus op het Europees privaatrecht. En ik houd me al 10 jaar bezig met digitalisering in het recht – zoals smart contracts, blockchain, AI in recht – omdat de regelgeving heel vaak uit Europa komt.
U bent heel nauw betrokken bij alle aspecten van AI en legal tech. Wat trok u aan om te werken op het snijvlak van recht en technologie?
Wij hadden een congres in Hong Kong in 2015 over legal tech, dus over toepassing van digitale technologie voor advocatenkantoren, rechtbanken etc. Een senior partner van een groot advocatenkantoor in Australië vertelde toen dat er momenteel 3000 mensen werken, maar dat er over 15 jaar misschien nog 30 mensen nodig zullen zijn. Ik vond dit shockerend en ik vroeg me af of dit echt kon. Ook al was ik het er niet mee eens met wat hij zei, het heeft me wel getriggerd. Zo is het eigenlijk begonnen. In het begin heb ik veel met legal tech gedaan, zoals het werken met smart contracts. Dan komen er altijd weer nieuwe dingen die me triggeren, zoals de Large Language Models en dan blijf ik daarmee blijf ik continu bezig.
U heeft daarnaast een heel bijzondere academische loopbaan met verschillende posities in Europa, maar ook in China. Welke verschillen ziet u wereldwijd in hoe rechtssystemen omgaan met digitaliseren en AI?
Er zijn wel grote verschillen. Als het gaat om digitale technologieën en recht, en wat digitale technologieën kunnen betekenen voor bijvoorbeeld de rechtspraak of alle juridische zaken, zijn wij in Europa heel terughoudend. Amerikanen bijvoorbeeld kijken er een stuk positiever tegenaan. Zij denken dat de robotrechter eraan gaat komen die in principe alles beslist. Of dat er een AI gaat bestaan die uiteindelijk alles kan beslissen. Wij in Europa zien dat een heel stuk kritischer. Bij het meeste denken we dat het niet kan en dat het niet mag. Enerzijds is het de vraag of het technisch überhaupt mogelijk is en anderzijds of het mag volgens het recht. Laten we AI beslissen of iemand een straf krijgt of niet? In China zijn ze technologisch heel ver en daar is de rechtspraak een heel stuk digitaler dan hier. Je kan je afvragen of dat wel goed is. In China kunnen alle rechtbanken alle zittingen digitaal zien. Het is een ontzettend grote zaal. De vraag is of dit een goed idee is of niet.
Hoe kijkt u er naar? Zouden er ook bepaalde dingen zijn die we kunnen toepassen hier in Europa of in Nederland?
Dat is nog de vraag. We hebben gebrek aan rechters en dat hebben we in Duitsland ook. Dat gebrek wordt steeds groter. Willen we betere kwaliteit leveren? Dan moeten we zien hoe en of we AI beter kunnen gebruiken voor bepaalde dingen. Ik zeg niet voor alles, maar ik denk dat we over bepaalde dingen na moeten denken omdat deze beter kunnen met AI. Als bepaalde taken door een AI zouden worden overgenomen, kan de rechter zich concentreren op hetgeen waar de mens voor noodzakelijk is.
Hoe verklaart u de verschillen tussen die landen?
Er zijn meerdere verschillen, maar wij zijn een stuk meer op waarde gebaseerd. Voor ons zijn mensenrechten, procedurele garanties en privacy en gegevensbescherming heel belangrijk. Andere landen zien het anders, zij doen wat technologisch mogelijk is. Voor hen is technologie belangrijker en dan is het een ander verhaal. Als het gaat om digitale technologieën dan wordt er gezegd: Amerika heeft de technologie, China heeft de data en wij in Europa hebben de regelgeving. Wij willen waarborgen en dit is een belangrijk verschil. Wij moeten een beslissing maken en nadenken of iets wel kan. Er zijn voor- en nadelen die we moeten afwegen. Laten we de technologie gewoon los? Dus alles wat technologisch mogelijk is, daar gaan we het voor gebruiken. Of zeggen we nee, dat willen we niet.
Hoe denkt u hierover?
Ik ben een overtuigde Europeaan en toch denk ik dat de EU soms te veel regelgeving heeft. Niet alles is noodzakelijk. Maar we moeten wel voorzichtig zijn met digitale technologieën en AI: er moeten grenzen zijn. Als het gaat om AI, bepaalt de AI Act bijvoorbeeld dat social scoring absoluut niet mag en hetzelfde geldt voor live facial recognition. In China kijken ze er anders tegenaan: social scoring en live facial recognition mag gewoon. Soms heeft het wel rare gevolgen. Ik was in Wuhan en ik kwam de universiteit niet binnen, omdat zij mijn gezicht niet hadden. Een ander voorbeeld is de nieuwe luchthaven in Beijing (overigens de grootste ter wereld) waar ik naar een andere gate moest en ik wist niet welke gate dat was. Ik stond in een grote hal, maar er was geen informatiedesk. Er waren alleen computers en je moest simpelweg je gezicht laten scannen. Vervolgens gaven die computers aan waar je naartoe moest. Voor Chinezen werkte dit prima, maar voor mij niet, omdat mijn gezicht niet in het systeem zat. Er was verder helemaal geen mens en alle buitenlanders zaten daar en hadden geen idee waar ze heen moesten.
AI lijkt niet alleen een technologie revolutie, maar ook een geopolitieke wapen te worden. We zien spanningen ontstaan rond chips, datatoegang en wetgeving – denk aan de EU AI Act of Amerikaanse exportbeperkingen richting China. Hoe denkt u dat deze wereldwijde AI-wedloop de ontwikkelingen beïnvloedt?
Wat de chips betreft is Taiwan nummer één. In Nederland hebben we ASML, dat is een van de koplopers. In Amerika is het Nvidia. China loopt iets achter met de chips, maar niet veel. Ik denk dat het interessant is om te zien wie macht krijgt over deze technologie. Vanaf vandaag, of in elk geval zeer recent, mag Nvidia bepaalde chips niet meer naar China exporteren. China is onder meer geïnteresseerd in Taiwan wegens de chipindustrie. Wat Europa betreft heb ik altijd gedacht: we hebben ASML, maar we zijn geen koplopers op chipgebied – en evenmin op technologisch gebied in het algemeen. Toch zie je dat dit heel snel kan veranderen. Met de komst van DeepSeek, een relatief klein bedrijf, verliest Nvidia op één dag zo’n 600 miljard euro. Dit soort ontwikkelingen gaan razendsnel. DeepSeek laat zien dat Europa een kans heeft. Met relatief weinig geld hebben ze dit voor elkaar gekregen. Nu ontstaan er wel AI centra’s in Europa met behulp van de EU en ik denk dat er behoefte bestaat aan AI die regelgebaseerd is. Stel ik ben een bedrijf en ik wil AI gebruiken en ik mag kiezen tussen Chinese, Amerikaanse en Europese AI die regelgebaseerd is. Dan is de vraag: waarvoor ga ik kiezen? Ik zou de Chinese niet kiezen, want ik weet niet waar de gegevens naartoe gaan. En als je werkt met DeepSeek zie je dat DeepSeek bepaalde dingen niet wil zeggen. Soms worden de resultaten aangepast en wat de data betreft zou ik zeggen gegevensbescherming nul. Dan is er nog de AI uit Amerika, maar die is gewoon niet regelgebaseerd. Waarborgen ze wel mensenrechten bij bijvoorbeeld het trainen van AI? Daarom zou ik als bedrijf kiezen voor AI in Europa, aangezien die regelgebaseerd is. Vaak denken wij Europeanen dat wij achterlopen, maar uiteindelijk klopt het niet. We hebben iets aan de wereld te geven. Dat is niet altijd zo geweest, maar het lijkt er nu op dat Europa een spiegel vormt voor Amerika – zoals Amerika dat ooit voor de rest van de wereld was.
U vertelt in uw stuk dat AI voor nu in de rechtspraak alleen wat administratieve taken kan vervangen. Stel dat AI veel krachtiger wordt en dus steeds minder fouten maakt. Waar ligt dan de grens om AI te gebruiken in de rechtspraak?
De vraag is iets breder: wat kun je met AI, wat is technologisch mogelijk en wat mag volgens het recht? Technisch gezien kan AI bepaalde dingen voorbereiden. Bestaat er al AI die precies is getraind op beslissingen maken? Op dit moment gebruiken rechters in de praktijk alleen ChatGPT. De rechter kan de casus uploaden en vragen aan ChatGPT om iets te zeggen, dus: “please prepare a judgment”. Dit zou theoretisch kunnen. En het is belangrijk om te beseffen dat het gaat om een taalmachine. Voor zover ik weet, gebeurt dit (nog) niet in Nederland, althans niet openbaar. Wat wel gebeurd is, is bijvoorbeeld de uitspraak van rechtbank Gelderland waarbij ChatGPT wordt gebruikt om feiten te achterhalen. Volgens mij daar moet je je afvragen of dit mag en of je dit zomaar kan doen. Ten eerste is ChatGPT niet betrouwbaar qua feiten. De rechter heeft veel fouten gemaakt, want de rechter heeft niet gezegd welke versie van ChatGPT hij heeft gebruikt en wat de prompts waren. De rechter heeft niet aangegeven wat hij heeft gevraagd aan ChatGPT.
Zelfs als de prompts wel waren gegeven, bestaat er dan niet een risico dat er veel verschillende resultaten eruit komen? Hoe betrouwbaar zou zo’n prompt echt zijn voor zo’n resultaat?
Het probleem is dat ChatGPT vaak wel bronnen aangeeft, maar die kloppen vaak niet. ChatGTP geeft mij vaak als bron aan, ook al heb ik er nog nooit iets over dat onderwerp gezegd. ChatGPT is voor mijn gevoel een ‘crowdpleaser’. Zelfs bij niet rechtelijke vragen krijgen mensen mij als bron. Die link klopt absoluut niet. Mijn gevoel zegt dat rechters ChatGPT gebruiken om feiten voor te bereiden of om feiten te achterhalen.
Dit mag rechtelijk niet én het is technisch niet juist. Technisch gezien kan ChatGPT hallucineren, niet goede bronnen aangeven en misschien heeft het wel een bias. Het voorbeeld van de zonnepanelen laat ook zien dat het rechterlijk niet kan. Wie moet eigenlijk bewijzen hoe lang de zonnepanelen doorgaan? Volgens het procesrecht is dat de partij die de klacht indient, maar zo wordt de bewijslast veranderd. De rechter neemt de taak over van de partij die de klacht indient. Diegene moet bewijzen hoe lang de zonnepanelen meegaan. Dit roept belangrijke vragen op over de onafhankelijkheid en onpartijdigheid van de rechter. Ook het recht op hoor en wederhoor komt hiermee in het geding. De rechter verandert daardoor de pariteit van partijen en dat mag eigenlijk niet. En daarom zou dit een schending van het procesrecht kunnen zijn. Op dit moment ontbreken in Nederland richtlijnen om rechters misschien te helpen. Er zijn geen kaders die aangeven wat de rechter wel of niet mag met AI.
Transparantie van algoritmes en uitleg van technologie kan conflicteren met belangen zoals bedrijfsgeheimen. Tegelijkertijd wordt er steeds vaker transparantie geëist, zeker bij inzet van algoritmes in de rechtspraak. Hoe ziet u deze spanningsrelatie tussen commerciële belangen, nationale veiligheid en transparantie? En hoe zouden we hiermee om moeten gaan in Europa?
Transparantie is eigenlijk een nog groter probleem. Bij het gebruik van AI bestaat een ‘black box’. Dit betekent dat zelfs de ontwikkelaars niet weten waarom kunstmatige intelligentie tot zo’n beslissing is gekomen. Het is niet achterhaalbaar en ook niet voorspelbaar. Als de rechter ChatGPT gebruikt, dan moet hij in principe uitleggen hoe ChatGPT tot zo’n beslissing is gekomen. Maar dit kan de rechter niet: het is onmogelijk. Zelfs OpenAI – de ontwikkelaar – kan je niet precies uitleggen waarom ChatGPT tot een bepaald antwoord komt. Er wordt vaak gezegd dat we explainable AI nodig hebben en de EU wil dit ook heel graag, maar op dit moment hebben we nog geen volledige explainable AI. We hebben nog altijd het probleem van de black box-algoritmes, waardoor we moeten hopen dat AI het goed heeft gedaan.
Wat vind u van de stelling dat het menselijke brein meer een black box is dan het algoritme? Want van een algoritme weten we hoe het werkt, van een brein niet. Waarom zien we het menselijke brein niet als black box?
We zullen zien hoelang dit nog zo is. Er wordt op dit moment hard gewerkt aan het onderzoek naar hoe het menselijke brein werkt – en dat geldt ook voor systemen zoals ChatGPT. De stelling klopt als het gaat om het brein van de rechter en ChatGPT. Wanneer we het hebben over rechters en AI die wordt ingezet bij rechterlijke beslissingen, wordt er vaak gewezen op het risico van bias bij AI. We vergeten wel vaak dat rechters ook een bias kunnen hebben. Sommige techneuten stellen dat AI waarschijnlijk minder bias heeft dan een rechter. Of dat klopt, weten we niet precies – want elke rechter is anders. Misschien is de ene rechter een racist en de andere niet. Wat we in ieder geval wel zeker weten, is dat mensen biases hebben. Dat is zichtbaar in het dagelijks leven: wie wordt er vaker aangehouden door de politie? Dat ben ik meestal niet, maar iemand met een andere huidskleur mogelijk wel.
Hoe gebruikt u zelf AI in uw werk?
In mijn werk gebruik ik DeepL voor vertalingen. En ik gebruik ChatGPT en DeepSeek. Voor mij functioneren die als een gesprekspartner als ik artikelen schrijf – bijna zoals een collega. Als ik een idee heb voor een artikel leg ik het voor en vraag ik: wat denk je hiervan? Dan zegt ChatGPT: dat vind ik goed en heb je ook hier aan gedacht? Het artikel schrijf ik wel alleen, omdat ik er 100% zeker van wil zijn dat ik de auteur ben. Achteraf ga ik wel mijn eigen artikel uploaden en stel dan vragen zoals: vind je het overtuigend? Waar zou het beter kunnen? Zijn de bronnen goed verwerkt? Is het taalgebruik goed? Is de argumentatie overtuigend? In die zin gebruik ik het echt als een collega. Het is voor mij echter belangrijk dat ik in controle blijf over de inhoud van mijn artikel.
Mag een rechter in de toekomst volgens u wél LLM’s gebruiken, maar alleen als het model speciaal is ontworpen voor juridische doeleinden – en dus niet ChatGPT?
Dat zou kunnen en dat is technisch mogelijk. Het hangt er een beetje vanaf wat de doelstelling is. Als we een legal LLM creëren, dan moeten we weten wat we ermee willen bereiken. Willen we alleen dat de LLM alleen de feiten duidelijk stelt? Dat kan ChatGPT op dit moment al redelijk goed. Of willen we verder gaan en een systeem creëren waarbij een LLM een voorstel kan doen voor de uitspraak. Bij zo’n systeem moeten we ons afvragen: blijft het dan toch nog de beslissing van de rechter? We kunnen zeggen dat zo’n assistentiesysteem alleen ondersteunend is: de rechter kijkt eroverheen en dan als het systeem het niet goed heeft, dan kan de rechter het nog steeds veranderen. En dit klopt, maar de behavioural law in economics heeft laten zien dat er een ‘anchor effect’ en een “automation bias” bestaat. Het probleem is dus dat wij vaak met zo’n automatisch beslissing meegaan. Wij veranderen de beslissing dan niet meer. Misschien heb je geen tijd en heb je het druk gehad en dan denk je al snel: dit klopt wel. Daarom denk ik dus dat er richtlijnen zouden moeten komen over het omgaan met kunstmatige intelligentie in de rechtspraak.
Wat was het belangrijkste inzicht dat u zelf als student of jonge academicus heeft opgedaan — en dat u graag zou doorgeven aan de volgende generatie juristen?
Tijdens mijn eerste college in Duitsland heeft een oud hoogleraar altijd gezegd “lassen sie sich nicht bluffen”, oftwel “Don’t get bluffed”. Destijds begreep ik niet precies wat hij ermee bedoelde, maar in 2025 snap ik het. Ik vind het zelf een uitermate moeilijke periode nu om heel veel redenen, maar het neemt niet weg dat de rechtenstudie nog steeds fantastisch is en dat er nog zoveel mogelijkheden zijn. Ik heb het altijd leuk gevonden om rechten te studeren, juist omdat ik niet precies wist wat ik wilde gaan doen. Het sprak mij aan omdat je veel richtingen op kan. In tijden zoals deze is het belangrijk om zelf te blijven denken. Zelf kijk ik bijvoorbeeld maar één keer per dag naar het nieuws. Ik doe niet aan doomscrolling. Jullie als student hebben het recht gelukkig te zijn en soms dingen even los te laten. Dat is wel belangrijk. Soms denk je: alles is zo slecht en het is een moeilijke periode. Maar wij hebben het recht om bijvoorbeeld naar de bioscoop te gaan of om feest te vieren – ook al is de situatie moeilijk. Als wij achteraf mentaal schade oplopen omdat we alleen maar aan doomscrolling doen, dan hebben we er ook niks aan.
Interviewers: N. Trajković & T. Yu
[1] Rb. Gelderland 7 juni 2024, ECLI:NL:RBGEL:2024:3636, r.o. 5.7.