TLDR : La Cour de Cassation française explora los usos de la inteligencia artificial (IA) para mejorar la eficacia del trabajo judicial a través de un enfoque metodológico, ético y pragmático. El informe recomienda usos específicos de la IA para reforzar el análisis de los magistrados y la organización interna, respetando una línea roja clara: la decisión final siempre pertenece al juez, no al algoritmo.
Índice
El pasado 28 de abril, el grupo de trabajo dedicado a la IA de la Cour de cassation, guardiana de la interpretación del derecho en Francia, presentó oficialmente su informe "Cour de cassation e inteligencia artificial: preparar la Corte del mañana". En él, explora los usos actuales y potenciales de la IA para mejorar la eficiencia del trabajo judicial, recomendando un enfoque metodológico, ético y pragmático.
La Cour de cassation cuenta con una ventaja estratégica en este sentido: su equipo interno de ciencia de datos, raro en el panorama judicial europeo, que le permite desarrollar sus propias herramientas necesarias, reducir costos y garantizar la transparencia. Esta autonomía técnica se revela aún más valiosa en un contexto marcado por la creciente tensión entre el rendimiento tecnológico y la independencia institucional.
Encargada por el legislador de asegurar la publicación en Open Data de las decisiones de justicia, ha desarrollado en 2019 un software de seudonimización de decisiones judiciales y al año siguiente, un sistema de orientación de recursos basado en IA.
Apoyándose en esta experiencia, su primer presidente Christophe Soulard y el fiscal general Rémy Heitz han constituido un grupo de trabajo dedicado a la IA, presidido por Sandrine Zientara, presidenta de sala y directora del Servicio de documentación, estudios e informes (SDER), una entidad clave de la Cour de cassation.
Un enfoque riguroso, centrado en las necesidades reales de la institución
El grupo, mandatado en mayo de 2024, adoptó una metodología transversal, asociando magistrados, secretarios judiciales, investigadores y expertos en IA. La investigación realizada entre el personal de la Corte, enriquecida por audiencias externas (ENM, CEPEJ, legaltechs, altas jurisdicciones nacionales y europeas), permitió identificar un amplio abanico de casos de uso.
Lejos de ceder al entusiasmo por las IA generativas, el informe también explora las aportaciones de tecnologías más probadas: sistemas expertos, aprendizaje supervisado o híbridos.
Casos de uso pragmáticos, jerarquizados según su valor y sus riesgos
Los casos registrados se clasifican en cinco grandes categorías, desde la estructuración y el enriquecimiento documental hasta la ayuda a la redacción, pasando por el análisis de los escritos de las partes y la investigación jurisprudencial. Estos usos están pensados para reforzar la capacidad de análisis de los magistrados, mejorar la calidad de los tratamientos y optimizar la organización interna, sin inmiscuirse en la toma de decisiones jurisdiccionales. Algunos, como el enriquecimiento automático de memorias o la detección de precedentes, presentan una buena relación eficacia/costo sin plantear dificultades éticas mayores. Otros, especialmente los relacionados con la redacción asistida, parecen más sensibles. La intención de no introducir herramientas de ayuda a la decisión refleja una línea roja institucional clara: la decisión pertenece al juez, no al algoritmo.
Herramientas que permitan cartografiar los litigios, detectar conexiones entre expedientes o analizar masas jurisprudenciales podrían reforzar la coherencia del derecho, identificar mejor los litigios emergentes y facilitar el diálogo de los jueces.
Criterios estrictos para enmarcar el uso de la IA
El análisis multicriterio realizado para cada caso de uso (ético, jurídico, funcional, técnico y económico), permite salir de una lógica de experimentación oportunista para anclar los usos de la IA en un marco razonado y reproducible. Este modelo de evaluación podría inspirar a otras jurisdicciones, en Francia o en el extranjero, preocupadas por conjugar innovación y seguridad jurídica. El informe insiste especialmente en la transparencia y explicabilidad de los sistemas de IA, su frugalidad, el respeto del RGPD y del AI Act, el control del alojamiento de datos, o incluso la soberanía tecnológica. Estas exigencias recuerdan que la integración de la IA no puede abstraerse de una gestión rigurosa, basada en los valores fundamentales del derecho.
Una gobernanza responsable y un seguimiento continuo
El informe recomienda la creación de un comité de supervisión interna encargado del seguimiento operativo y ético de los usos de la IA, una guía de buenas prácticas así como la adopción de una carta ética específica para la Corte. También insiste en la importancia de una gobernanza independiente y un proceso de aculturación gradual de magistrados y agentes judiciales a estas tecnologías emergentes.
Para entender mejor
¿Qué es la AI Act y cómo influye en el uso de la IA por parte de la Cour de cassation?
La AI Act es una propuesta de regulación de la UE que busca establecer normas armonizadas para la IA. Influye en la Cour de cassation al imponer estándares estrictos de transparencia y seguridad para los sistemas de IA utilizados en el ámbito judicial.
¿Cómo ha evolucionado la historia de la seudonimización en el ámbito judicial hasta su adopción por parte de la Cour de cassation en 2019?
La seudonimización de las decisiones judiciales surgió como respuesta a las crecientes demandas de protección de datos personales, con leyes como el RGPD de la UE influyendo en las prácticas. La Cour de cassation adoptó esta tecnología en 2019 para mejorar la confidencialidad y permitir el acceso a las decisiones judiciales.