În scurt : Curtea de Casație franceză explorează utilizarea inteligenței artificiale (IA) pentru a îmbunătăți eficiența muncii judiciare printr-o abordare metodologică, etică și pragmatică. Raportul recomandă utilizări specifice ale IA pentru a întări analiza magistraților și organizarea internă, menținând o linie roșie clară: decizia finală aparține întotdeauna judecătorului, nu algoritmului.
Sumar
Pe 28 aprilie, grupul de lucru dedicat IA al Curții de Casație, gardiana interpretării dreptului în Franța, a prezentat oficial raportul său "Curtea de Casație și inteligența artificială: pregătirea Curții de mâine". Acesta explorează utilizările actuale și potențiale ale IA pentru a îmbunătăți eficiența muncii judiciare, recomandând o abordare metodologică, etică și pragmatică.
Curtea de Casație beneficiază în acest sens de un atu strategic: echipa sa internă de data science, rară în peisajul judiciar european, care îi permite să dezvolte propriile instrumente necesare, să reducă costurile și să garanteze transparența. Această autonomie tehnică se dovedește cu atât mai prețioasă într-un context marcat de tensiunea crescândă între performanța tehnologică și independența instituțională.
Însărcinată de legiuitor să asigure punerea în Open Data a deciziilor de justiție, a dezvoltat în 2019 un software de pseudonimizare a deciziilor judiciare și, în anul următor, un sistem de orientare a recursurilor bazat pe IA.
Bazându-se pe această expertiză, primul președinte Christophe Soulard și procurorul general Rémy Heitz au constituit un grup de lucru dedicat IA, prezidat de Sandrine Zientara, președinte de cameră și director al Serviciului de documentare, studii și raport (SDER), o entitate cheie a Curții de Casație.
O abordare riguroasă, centrată pe nevoile reale ale instituției
Grupul, mandatat în mai 2024, a adoptat o metodologie transversală, asociind magistrați, grefieri, cercetători și experți în IA. Ancheta desfășurată în rândul personalului Curții, îmbogățită de audieri externe (ENM, CEPEJ, legaltech-uri, înalte jurisdicții naționale și europene), a permis identificarea unui larg spectru de cazuri de utilizare.
Departe de a ceda entuziasmului pentru IA generative, raportul explorează și contribuțiile tehnologiilor mai bine testate: sisteme expert, învățare supervizată sau hibride.
Cazuri de utilizare pragmatice, ierarhizate după valoarea și riscurile lor
Cazurile identificate sunt clasificate în cinci mari categorii, de la structurarea și îmbogățirea documentară la asistența la redactare, trecând prin analiza scrierilor părților și cercetarea jurisprudențială. Aceste utilizări sunt gândite pentru a întări capacitatea de analiză a magistraților, a îmbunătăți calitatea proceselor și a optimiza organizarea internă, fără a se amesteca în procesul decizional jurisdicțional. Unele, precum îmbogățirea automată a memoriilor sau detectarea precedentelor, prezintă un raport bun de eficacitate/cost fără să ridice probleme etice majore. Altele, în special cele legate de redactarea asistată, apar mai sensibile. Intenția de a nu introduce instrumente de asistență la decizie reflectă o linie roșie instituțională clară: decizia aparține judecătorului, nu algoritmului.
Instrumente care permit cartografierea litigiilor, detectarea conexiunilor între dosare sau analiza maselor jurisprudențiale ar putea întări coerența dreptului, identifica mai bine contenciosul emergent și facilita dialogul judecătorilor.
Criterii stricte pentru a încadra utilizarea IA
Analiza multicriterială realizată pentru fiecare caz de utilizare (etic, juridic, funcțional, tehnic și economic), permite ieșirea dintr-o logică de experimentare oportunistă pentru a ancora utilizările IA într-un cadru rațional și reproductibil. Acest model de evaluare ar putea inspira și alte jurisdicții, în Franța sau în străinătate, preocupate să combine inovația cu securitatea juridică. Raportul insistă în mod special pe transparența și explicabilitatea sistemelor IA, frugalitatea lor, respectarea RGPD și a AI Act, controlul găzduirii datelor, sau suveranitatea tehnologică. Aceste cerințe reamintesc faptul că integrarea IA nu poate fi abstractă de la o gestionare riguroasă, bazată pe valorile fundamentale ale dreptului.
O guvernanță responsabilă și un monitorizare continuu
Raportul recomandă înființarea unui comitet de supraveghere internă responsabil de monitorizarea operațională și etică a utilizărilor IA, un ghid de bune practici, precum și adoptarea unei cartele etice specifice Curții. De asemenea, insistă asupra importanței unei guvernanțe independente și a unui proces de familiarizare graduală a magistraților și agenților judiciari cu aceste tehnologii emergente.
Pentru a înțelege mai bine
Ce este AI Act și cum influențează utilizarea IA de către Cour de cassation?
AI Act este o propunere de reglementare a UE care vizează stabilirea de reguli armonizate pentru IA. Influentează utilizarea IA de către Cour de cassation prin impunerea unor standarde stricte de transparență și securitate pentru sistemele IA din domeniul judiciar.
Cum a evoluat istoria pseudonimizării în domeniul judiciar până la adoptarea acesteia de către Cour de cassation în 2019?
Pseudonimizarea deciziilor judiciare a apărut ca răspuns la cerințele crescânde de protecție a datelor personale, cu legi precum RGPD-ul UE influențând practicile. Cour de cassation a adoptat această tehnologie în 2019 pentru a îmbunătăți confidențialitatea și a permite accesul la deciziile judiciare.