In kort : Het Franse Hof van Cassatie verkent het gebruik van AI om de efficiëntie van het gerechtelijk werk te verbeteren door middel van een methodologische, ethische en pragmatische benadering. Het rapport beveelt specifieke AI-toepassingen aan om de analyse van magistraten en de interne organisatie te versterken, met een duidelijke rode lijn: de uiteindelijke beslissing ligt altijd bij de rechter, niet bij het algoritme.
Op 28 april heeft de werkgroep gewijd aan AI van het Hof van Cassatie, de hoeder van de interpretatie van de wet in Frankrijk, officieel haar rapport overhandigd "Hof van Cassatie en kunstmatige intelligentie: het Hof van morgen voorbereiden". Het verkent de huidige en potentiële toepassingen van AI om de efficiëntie van het gerechtelijk werk te verbeteren, waarbij een methodologische, ethische en pragmatische benadering wordt aanbevolen.
Het Hof van Cassatie heeft in dit opzicht een strategisch voordeel: haar interne data science-team, zeldzaam in het Europese gerechtelijke landschap, stelt haar in staat om de nodige tools zelf te ontwikkelen, kosten te verlagen en transparantie te waarborgen. Deze technische autonomie blijkt des te waardevoller in een context die wordt gekenmerkt door de groeiende spanning tussen technologische prestaties en institutionele onafhankelijkheid.
In opdracht van de wetgever om de Open Data-implementatie van gerechtelijke beslissingen te waarborgen, heeft het in 2019 een software voor de pseudonimisering van gerechtelijke beslissingen ontwikkeld en het jaar daarop een AI-gebaseerd doorverwijzingssysteem voor beroepen.
Met deze expertise als basis hebben haar eerste president Christophe Soulard en procureur-generaal Rémy Heitz een werkgroep gewijd aan AI samengesteld, voorgezeten door Sandrine Zientara, voorzitter van de kamer en directeur van de Dienst Documentatie, Studies en Rapportage (SDER), een sleutelentiteit van het Hof van Cassatie.
Een rigoureuze benadering, gericht op de echte behoeften van de instelling
De groep, gemandateerd in mei 2024, heeft een transversale methodologie aangenomen, waarbij magistraten, griffiers, onderzoekers en AI-experts worden betrokken. Het onderzoek onder het personeel van het Hof, verrijkt door externe hoorzittingen (ENM, CEPEJ, legaltechs, hoge nationale en Europese rechtbanken), heeft een breed scala aan gebruikssituaties geïdentificeerd.
Verre van toe te geven aan de opwinding over generatieve AI, verkent het rapport ook de bijdragen van meer bewezen technologieën: expertsystemen, begeleid leren of hybride systemen.
Pragmatische gebruikssituaties, gerangschikt op hun waarde en risico's
De geïdentificeerde gevallen zijn gesorteerd in vijf hoofdcategorieën, variërend van documentstructurering en -verrijking tot schrijfondersteuning, en van analyse van partijstukken tot jurisprudentieonderzoek. Deze toepassingen zijn bedoeld om de analysecapaciteit van magistraten te versterken, de kwaliteit van behandelingen te verbeteren en de interne organisatie te optimaliseren, zonder echter in te grijpen in de rechterlijke besluitvorming. Sommige, zoals de automatische verrijking van memories of de detectie van precedenten, bieden een goede efficiëntie/kostenverhouding zonder grote ethische problemen te veroorzaken. Andere, met name die met betrekking tot schrijfondersteuning, lijken gevoeliger. De intentie om geen besluitvormingstools te introduceren weerspiegelt een duidelijke institutionele rode lijn: de beslissing ligt bij de rechter, niet bij het algoritme.
Tools die het mogelijk maken om geschillen in kaart te brengen, verbindingen tussen dossiers te detecteren of grote jurisprudenties te analyseren, zouden de coherentie van het recht kunnen versterken, opkomende geschillen beter kunnen identificeren en de dialoog van rechters vergemakkelijken.
Strikte criteria om het gebruik van AI te reguleren
De multicriteria-analyse die voor elke gebruikssituatie is uitgevoerd (ethisch, juridisch, functioneel, technisch en economisch), maakt het mogelijk om uit een opportunistische experimenteerlogica te stappen en het gebruik van AI in een beredeneerd en reproduceerbaar kader te verankeren. Dit evaluatiemodel zou andere jurisdicties, in Frankrijk of in het buitenland, kunnen inspireren die innovatie en juridische veiligheid willen combineren. Het rapport benadrukt met name de transparantie en uitlegbaarheid van AI-systemen, hun zuinigheid, de naleving van de GDPR en de AI Act, de beheersing van gegevenshosting, of technologische soevereiniteit. Deze eisen herinneren eraan dat de integratie van AI niet kan worden losgekoppeld van een rigoureuze sturing, gebaseerd op de fundamentele waarden van het recht.
Verantwoord bestuur en continue monitoring
Het rapport beveelt de oprichting aan van een interne toezichtscommissie die verantwoordelijk is voor de operationele en ethische monitoring van AI-gebruik, een gids voor best practices, evenals de aanneming van een specifieke ethische charter voor het Hof. Het benadrukt ook het belang van onafhankelijk bestuur en een geleidelijk acculturatieproces van magistraten en gerechtelijke medewerkers aan deze opkomende technologieën.
Beter begrijpen
Wat is de AI Act en hoe beïnvloedt het het gebruik van AI door de Cour de cassation?
De AI Act is een voorstel voor EU-regelgeving met als doel geharmoniseerde regels voor AI vast te stellen. Het beïnvloedt het gebruik van AI door de Cour de cassation door strikte transparantie- en veiligheidsnormen op te leggen voor AI-systemen in de rechterlijke macht.
Hoe heeft de geschiedenis van pseudonimisering in het juridische veld zich ontwikkeld tot de adoptie ervan door de Cour de cassation in 2019?
Pseudonimisering van gerechtelijke beslissingen is ontstaan als reactie op de groeiende eisen voor de bescherming van persoonsgegevens, waarbij wetten zoals de AVG van de EU de praktijken beïnvloeden. De Cour de cassation heeft deze technologie in 2019 aangenomen om de vertrouwelijkheid te verbeteren en tegelijkertijd toegang tot gerechtelijke beslissingen mogelijk te maken.