IA e justiça: a Corte de Cassação prepara o futuro

IA e justiça: a Corte de Cassação prepara o futuro

Em resumo : A Corte de Cassação francesa explora os usos da inteligência artificial (IA) para melhorar a eficácia do trabalho judicial através de uma abordagem metodológica, ética e pragmática. O relatório recomenda usos específicos da IA para reforçar a análise dos magistrados e a organização interna, respeitando uma linha vermelha clara: a decisão final pertence sempre ao juiz, não ao algoritmo.

No dia 28 de abril, o grupo de trabalho dedicado à IA da Corte de Cassação, guardiã da interpretação do direito na França, entregou oficialmente seu relatório "Corte de Cassação e inteligência artificial: preparar a Corte de amanhã". Nele, são explorados os usos atuais e potenciais da IA para melhorar a eficiência do trabalho judicial, recomendando uma abordagem metodológica, ética e pragmática.
 
A Corte de Cassação possui, a esse respeito, um trunfo estratégico: sua equipe interna de ciência de dados, rara no cenário judicial europeu, que lhe permite desenvolver as ferramentas necessárias, reduzir custos e garantir transparência. Essa autonomia técnica revela-se ainda mais valiosa em um contexto marcado pela crescente tensão entre desempenho tecnológico e independência institucional.
Encarregada pelo legislador de assegurar a disponibilização em Open Data das decisões judiciais, desenvolveu, em 2019, um software de pseudonimização das decisões judiciais e, no ano seguinte, um sistema de orientação de recursos baseado em IA.
Apoiando-se nessa expertise, seu primeiro presidente Christophe Soulard e o procurador-geral Rémy Heitz constituíram um grupo de trabalho dedicado à IA, presidido por Sandrine Zientara, presidente da câmara e diretora do Serviço de Documentação, Estudos e Relatório (SDER), uma entidade chave da Corte de Cassação.

Uma abordagem rigorosa, centrada nas necessidades reais da instituição

O grupo, mandatado em maio de 2024, adotou uma metodologia transversal, associando magistrados, escrivães, pesquisadores e especialistas em IA. A pesquisa realizada junto ao pessoal da Corte, enriquecida por audições externas (ENM, CEPEJ, legaltechs, altas jurisdições nacionais e europeias), permitiu identificar uma ampla gama de casos de uso.
Longe de ceder ao entusiasmo pelas IAs generativas, o relatório também explora as contribuições de tecnologias mais testadas: sistemas especialistas, aprendizado supervisionado ou híbridos.

Casos de uso pragmáticos, hierarquizados segundo seu valor e seus riscos

Os casos levantados são classificados segundo cinco grandes categorias, que vão desde a estruturação e enriquecimento documental até a ajuda à redação, passando pela análise dos escritos das partes e a pesquisa jurisprudencial. Esses usos são pensados para reforçar a capacidade de análise dos magistrados, melhorar a qualidade dos tratamentos e otimizar a organização interna, sem, no entanto, se imiscuir na tomada de decisão jurisdicional. Alguns, como o enriquecimento automático das petições ou a detecção de precedentes, apresentam uma boa relação eficácia/custo sem levantar dificuldades éticas maiores. Outros, notadamente os relacionados à redação assistida, parecem mais sensíveis. A intenção de não introduzir ferramentas de ajuda à decisão reflete uma linha vermelha institucional clara: a decisão pertence ao juiz, não ao algoritmo.
Ferramentas que permitam mapear litígios, detectar conexões entre processos ou analisar massas jurisprudenciais poderiam reforçar a coerência do direito, melhor identificar os contenciosos emergentes e facilitar o diálogo dos juízes.

Criterios estritos para enquadrar o uso da IA

A análise multicritério realizada para cada caso de uso (ética, jurídica, funcional, técnica e econômica) permite sair de uma lógica de experimentação oportunista para ancorar os usos da IA em um quadro razoável e reprodutível. Este modelo de avaliação poderia, aliás, inspirar outras jurisdições, na França ou no exterior, preocupadas em conjugar inovação e segurança jurídica. O relatório insiste, notadamente, na transparência e explicabilidade dos sistemas de IA, sua frugalidade, o respeito ao RGPD e ao AI Act, o controle do alojamento dos dados, ou ainda a soberania tecnológica. Essas exigências vêm lembrar que a integração da IA não pode se abstrair de uma gestão rigorosa, fundada nos valores fundamentais do direito.

Uma governança responsável e um acompanhamento contínuo

O relatório recomenda a criação de um comitê de supervisão interna encarregado do acompanhamento operacional e ético dos usos da IA, um guia de boas práticas, bem como a adoção de uma carta ética específica para a Corte. Também insiste na importância de uma governança independente e um processo de aculturação gradual dos magistrados e agentes judiciais a essas tecnologias emergentes.

Para entender melhor

O que é o AI Act e como ele influencia o uso da IA pela Cour de cassation?

O AI Act é uma proposta de regulamentação da UE que visa estabelecer regras harmonizadas para a IA. Ele influencia o uso da IA na Cour de cassation ao impor normas rigorosas de transparência e segurança para sistemas de IA no campo judicial.

Como a história da pseudonimização no campo judicial evoluiu até sua adoção pela Cour de cassation em 2019?

A pseudonimização de decisões judiciais surgiu em resposta às crescentes demandas de proteção de dados pessoais, com leis como o RGPD da UE influenciando as práticas. A Cour de cassation adotou esta tecnologia em 2019 para aumentar a confidencialidade e permitir o acesso às decisões judiciais.