MR. SPECIAL NAJAAR 2025 / 29 AI & grondrechten Bart Custers is hoogleraar Law & Data Science aan de Universiteit Leiden en directeur van eLaw, Centrum voor Recht en Digitale Technologie. De afgelopen jaren publiceerde hij verschillende artikelen over AI-inzet in het juridische domein, waarbij hij onder meer onderzocht hoe die AI-inzet zich verhoudt tot grondrechten van burgers, zoals privacy en het recht op een eerlijk proces. Upubliceert al jarenlang veelvuldig over AI-gebruik door overheden en juristen, waarbij u regelmatig wijst op het risico dat AI-gebruik grondrechten van burgers onder druk kan zetten. Kunt u dat risico eens toelichten? “AI wordt veel gebruikt om risicoprofielen op te stellen over mensen en geautomatiseerd besluiten over hen te nemen. Het nemen van beslissingen over mensen op basis van beschikbare gegevens kan problemen opleveren voor betrokkenen. Gegevens kunnen onjuist of incompleet zijn of er kunnen onjuiste conclusies worden getrokken. Kortom, het kan een eenzijdig beeld geven en de menselijke maat kan naar de achtergrond geraken. Beslissingen nemen over iemand op afstand, in plaats van dat iemand tegenover je zit, is laagdrempeliger voor de beslisser. Tegelijkertijd zijn de beslissingen veel minder transparant en lastiger ter discussie te stellen door degene die het betreft. Het oordelen over een digitaal dossier, in plaats van over mensen van vlees en bloed, zet menselijke waardigheid onder druk. Dit bleek nadrukkelijk in de Toeslagenaffaire. Daaraan gerelateerde risico’s zijn privacy-inbreuken, discriminerende besluitvorming, gebrek aan transparantie en gebrek aan materiële en procedurele rechtvaardigheid in een eerlijk proces. Ook die problemen hebben we allemaal teruggezien in de Toeslagenaffaire.” Grote kantoren kunnen met behulp van AI-systemen nu al binnen mum van tijd duizenden stuks jurisprudentie doorploegen en er exact die informatie uithalen die ze nodig hebben om rechters van hun gelijk te overtuigen. Kun je daar als individuele advocaat, of als eenvoudige burger, nog wel tegenop? “In complexe rechtszaken kan het ook nu al helpen een groot team van advocaten te hebben die een zaak kunnen voorbereiden en de relevante wetsartikelen en jurisprudentie kunnen doorploegen. AI-systemen kunnen deze zoek- en “EEN AI-TOOL MOET JE PAS GEBRUIKEN ALS OVERTUIGEND IS AANGETOOND DAT DEZE NIET DISCRIMINEREND IS” analyseprocessen enorm versnellen en verbeteren. Andere AI-systemen kunnen de argumenten in een pleidooi verder structureren en scherper formuleren. Weer andere AI-systemen kunnen voorspellingen doen over slagingskansen bij de rechter als wordt gekozen voor procederen. Veel mogelijkheden dus, maar wat als niet alle partijen over zulke middelen beschikken, omdat ze duur zijn en veel expertise vergen? Dan kan ongelijkheid ontstaan tussen procespartijen. Equality of arms in de rechtszaal is een belangrijk onderdeel van procedurele rechtvaardigheid en een eerlijk proces. Dit kan onder druk komen te staan.” Systemen die puur op basis van data beslissingen nemen, kunnen ook discriminerend werken. Dat zagen we bijvoorbeeld bij de Toeslagenaffaire die u al noemde. Wat moet er in uw ogen gebeuren om te voorkomen dat we straks allerlei discriminerende AI-tools gebruiken? “Eerst dachten we dat het weglaten van discriminatie-gevoelige gegevens uit datasets discriminerende patronen zou voorkomen. Immers, als er geen gegevens over bijvoorbeeld etniciteit bekend zijn, kan dit ook geen etnische profilering opleveren. Althans, dat dachten we, voordat we hier onderzoek naar gingen doen. Omdat etniciteit gecorreleerd kan zijn aan postcode, opleidingsniveau, inkomen of andere karakteristieken, leverden onze tools alsnog discriminerende patronen op, maar dan indirect discriminerend in plaats van expliciet. Dan ben je eigenlijk nog verder van huis, want dit is nog lastiger te detecteren. Verdiep je dus in zowel de tools als de uitkomsten en bekijk goed of er geen bias of discriminatie in verborgen zit. Gebruik een AI-tool pas als overtuigend is aangetoond dat deze niet discriminerend is. Momenteel wordt gewerkt aan discrimination-aware datamining, maar dat staat nog in de kinderschoenen.” Vanuit cybersecurity-oogpunt wordt vaak gezegd dat het niet slim is om al je data op één plek te bewaren. Dat terwijl AI-systemen juist het meest effectief zijn als ze over zoveel mogelijk data kunnen beschikken, en je als kantoor daarvoor dus per definitie al je data naar één plek moet brengen. Hoe ga je daar als kantoor mee om? “Voor echt goede AI-systemen heb je inderdaad heel veel data nodig en dat kan weer beveiligingsrisico’s opleveren. In het algemeen geldt: hoe meer data én hoe gevoeliger de data, des te beter de beveiliging moet zijn. Wees in elk geval alert op gebruik van AI-tools van grote techbedrijven, want vaak staat in de kleine lettertjes dat alle data die aan de systemen wordt gevoed, door hen mogen worden gebruikt. Een dossier over een rechtszaak uploaden kan dus een enorm risico zijn.” Om het risico op het uitlekken van vertrouwelijke informatie te vermijden, wordt weleens geadviseerd om juridische input eerst te anonimiseren, voordat het in een AI-tool wordt gestopt. Hoe zinvol is dat wat u betreft? “Anonimiseren heeft slechts beperkt meerwaarde. Veel AI-tools hebben toegang tot het internet en heel veel andere bronnen. Daardoor is het vaak eenvoudig om informatie te combineren en anonimisering op te heffen. Als rechtspraak.nl een geanonimiseerd arrest
RkJQdWJsaXNoZXIy ODY1MjQ=