ChatGPT spreekt geen recht

ChatGPT spreekt geen recht
Advocatuur, Blog 27 augustus 2024

Wie een serieus artikel schrijft, baseert zich niet op indirecte bronnen. Die schrijver beroept zich dus niet op een andere auteur die zelf naar weer een andere verwijst. Maar de kantonrechter te Nijmegen deed dat wel toen hij (m/v) zich in zijn uitspraak – mede - baseerde op ChatGPT (vonnis van 7 juni 2024, ECLI:NL:RBGEL:2024:3636).

 

Voor hem stonden buren die ruzie maakten over gemiste opbrengst en gemaakte kosten van zonnepanelen. De stellingen van partijen verschaften de rechter niet alle informatie die hij nodig had om de toe te kennen schadevergoeding vast te stellen. Daarom nam hij het heft in handen om het schattenderwijs zelf te doen (verg. art. 6:97 BW). Voor de schatting van gemiddelde levensduur en aantal kwh van zonnepanelen beriep hij zich – mede - op ChatGPT.

 

Toen zijn uitspraak eenmaal in bredere kring bekend werd en onder meer in het Algemeen Dagblad werd besproken, waren de rapen gaar. Journalisten, juristen en experts artificial intelligence vielen over de man heen, onderwijl uitroepend: ‘Belachelijk, dit kan echt niet’.  Of de uitkomst materieel gesproken heel slecht is, weet ik nog zo net niet, maar dit gebruik van AI is inderdaad helemaal verkeerd.

 

Daarvoor bestaan diverse gronden. De eerste is dat ChatGPT niet een zoekmachine is maar een ‘woordzoeker’. Zij is dus hoe dan ook een verkeerd instrument. De tweede grond is daaraan verbonden: ChatGPT ontleent haar ‘kennis’ louter aan internet. Dat is heel wat, maar het internet biedt niet noodzakelijkerwijs voor elk onderwerp een toereikende verzameling van bronnen. En hoe zou de - vermoedelijk niet in het onderwerp gespecialiseerde - kantonrechter kunnen vaststellen of de meest recente inzichten omtrent de levensduur en kwh van een zich in hoog tempo verder ontwikkelend product als zonnepanelen al op internet zijn te vinden? En welke hebben te gelden voor zonnepanelen die – in casu – in 2009 werden geplaatst? Verder is het evident dat op het internet in de regel over een onderwerp niet alle nuances en wetenschappelijke diepgang in ‘open acces’ beschikbaar zijn.

 

Voorts kan de gebruiker niet beoordelen hoe ChatGPT tot haar bevindingen is gekomen. Hij weet niet welke bronnen ChatGPT heeft gevonden, welke zij heeft gebruikt, hoe zij deze heeft geïnterpreteerd, en hoe zij eventuele verschillen ten aanzien van de bevindingen tegenover elkaar heeft afgewogen om tot een oordeel omtrent de gevraagde informatie te komen.

 

De gestelde vragen zijn vooral belangrijk omdat voor zeer veel zaken geen eenduidige waarheid bestaat. Feiten zijn niet altijd empirisch waarneembaar of falsifieerbaar (Karl Popper), zeker niet wanneer zij onderwerp van een geschil tussen partijen zijn. Maar zelfs wanneer de norm voor bewijs wordt gelegd bij ‘aannemelijkheid’, moet een ‘feit’ berusten op een bron die controleerbaar is. Een getuige kan door de rechter betrouwbaar worden geacht, maar een machine die niet vertelt waar zij haar wetenschap vandaan haalt, niet. De machine kan niet uit innerlijke overtuiging waarheid spreken, aangezien zij deze zelf niet kent. Zij kan dus alleen worden geloofd wanneer haar eigen bronnen bekend worden gemaakt en controleerbaar zijn.

 

Naar mijn mening kan ChatGPT ook los van deze vaststelling van feiten maar heel weinig betekenen voor de rechtspraak. Zowel de keuze en waardering van de feiten – veelal mede in het licht van omgevingsfactoren - als de vorming van het rechtsoordeel zijn afhankelijk van typisch menselijke afweging en invulling die afhankelijk is van de confrontatie tussen feiten en rechtsnorm en de altijd fluïde vormgeving daarvan. In dit extreem subtiele proces kan de machine geen rol spelen, tenzij zou worden aanvaard dat de plaats van de rechter feitelijk wordt ingenomen door een soort papegaai.

 

De rechter kan dus niet zonder meer afgaan op ChatGPT of andere instrumenten van kunstmatige intelligentie. Hij moet zich overtuigen van de betrouwbaarheid van de bronnen en zowel zijn feitelijke als zijn juridische oordelen naar eigen inzicht en overtuiging vormen en formuleren. Maar het blijft niet bij de rechter: ook de procespartijen moeten zich overtuigen van de bronnen en methoden die KI gebruikt alvorens de uitkomsten daarvan als ‘waarheid’ aan de wederpartij en de rechter voor te leggen. En om hun eigen teksten overtuiging en inleving mee te geven moeten zij deze zelf schrijven. Kon de kantonrechter trouwens niet een bewijsopdracht geven?

Terug

Neem contact op

Heeft u vragen naar aanleiding van dit artikel of wenst u meer informatie over een van onze diensten? Neem vrijblijvend contact met ons op!

Neem contact op