TLDR : Der französische Kassationshof untersucht die Nutzungsmöglichkeiten von Künstlicher Intelligenz (KI), um die Effizienz der Justizarbeit durch einen methodischen, ethischen und pragmatischen Ansatz zu verbessern. Der Bericht empfiehlt spezifische KI-Nutzungen, um die Analyse der Richter und die interne Organisation zu stärken, wobei eine klare rote Linie respektiert wird: Die endgültige Entscheidung liegt immer beim Richter, nicht beim Algorithmus.
Am 28. April legte die auf KI spezialisierte Arbeitsgruppe des Kassationshofs, Hüterin der Rechtsauslegung in Frankreich, offiziell ihren Bericht "Kassationshof und Künstliche Intelligenz: die Zukunft des Hofes vorbereiten" vor. Darin untersucht sie die aktuellen und potenziellen Einsatzmöglichkeiten von KI, um die Effizienz der Justizarbeit zu verbessern, und empfiehlt einen methodischen, ethischen und pragmatischen Ansatz.
In diesem Zusammenhang verfügt der Kassationshof über einen strategischen Vorteil: sein internes Data-Science-Team, das im europäischen Justizwesen selten ist und ihm ermöglicht, die notwendigen Werkzeuge selbst zu entwickeln, Kosten zu senken und Transparenz zu gewährleisten. Diese technische Autonomie erweist sich als umso wertvoller in einem von wachsender Spannung zwischen technologischer Leistung und institutioneller Unabhängigkeit geprägten Kontext.
Im Auftrag des Gesetzgebers zur Sicherstellung der Open-Data-Veröffentlichung von Gerichtsentscheidungen hat der Kassationshof 2019 eine Software zur Pseudonymisierung von Gerichtsentscheidungen entwickelt und im darauffolgenden Jahr ein KI-basiertes System zur Orientierung der Revisionen.
Aufbauend auf dieser Expertise haben der erste Präsident Christophe Soulard und der Generalstaatsanwalt Rémy Heitz eine auf KI spezialisierte Arbeitsgruppe eingerichtet, die von Sandrine Zientara geleitet wird, Präsidentin der Kammer und Direktorin des Dienstes für Dokumentation, Studien und Berichte (SDER), einer Schlüsselentität des Kassationshofs.
Ein rigoroser Ansatz, der sich auf die realen Bedürfnisse der Institution konzentriert
Die im Mai 2024 beauftragte Gruppe verfolgte eine transversale Methodik, die Richter, Gerichtsschreiber, Forscher und KI-Experten einbezieht. Die bei den Mitarbeitern des Hofes durchgeführte Untersuchung, bereichert durch externe Anhörungen (ENM, CEPEJ, Legaltechs, nationale und europäische Obergerichte), ermöglichte die Identifizierung eines breiten Spektrums von Anwendungsfällen.
Abseits des Hypes um generative KIs untersucht der Bericht auch die Vorteile bewährter Technologien: Expertensysteme, überwachtes Lernen oder hybride Systeme.
Pragmatische Anwendungsfälle, nach ihrem Wert und ihren Risiken priorisiert
Die erfassten Fälle sind in fünf Hauptkategorien unterteilt, die von der Dokumentenstrukturierung und -anreicherung bis hin zur Unterstützung bei der Abfassung reichen und die Analyse der Schriftsätze der Parteien sowie die Rechtsprechungsforschung umfassen. Diese Anwendungen sollen die Analysefähigkeit der Richter stärken, die Qualität der Bearbeitungen verbessern und die interne Organisation optimieren, ohne sich in die gerichtliche Entscheidungsfindung einzumischen. Einige, wie die automatische Anreicherung von Schriftsätzen oder die Erkennung von Präzedenzfällen, bieten ein gutes Effizienz-Kosten-Verhältnis, ohne erhebliche ethische Bedenken aufzuwerfen. Andere, insbesondere diejenigen, die mit der unterstützten Abfassung verbunden sind, erscheinen sensibler. Die Absicht, keine Entscheidungshilfetools einzuführen, spiegelt eine klare institutionelle rote Linie wider: Die Entscheidung liegt beim Richter, nicht beim Algorithmus.
Werkzeuge zur Kartierung von Streitigkeiten, zur Erkennung von Verbindungen zwischen Fällen oder zur Analyse von Rechtsprechungsmassen könnten die Kohärenz des Rechts stärken, aufkommende Streitigkeiten besser identifizieren und den Dialog der Richter erleichtern.
Strenge Kriterien zur Regelung des KI-Einsatzes
Die für jeden Anwendungsfall durchgeführte multikriterielle Analyse (ethisch, rechtlich, funktional, technisch und wirtschaftlich) ermöglicht es, aus einer opportunistischen Experimentierlogik auszubrechen und die KI-Nutzung in einen durchdachten und reproduzierbaren Rahmen zu verankern. Dieses Bewertungsmodell könnte auch andere Gerichte in Frankreich oder im Ausland inspirieren, die Innovation und Rechtssicherheit vereinen möchten. Der Bericht betont insbesondere die Transparenz und Erklärbarkeit der KI-Systeme, deren Sparsamkeit, die Einhaltung der DSGVO und des AI Act, die Kontrolle über die Datenhaltung sowie die technologische Souveränität. Diese Anforderungen erinnern daran, dass die Integration von KI nicht ohne eine strenge Steuerung erfolgen kann, die auf den Grundwerten des Rechts basiert.
Eine verantwortungsvolle Governance und kontinuierliche Überwachung
Der Bericht empfiehlt die Einrichtung eines internen Überwachungsausschusses, der mit der operativen und ethischen Überwachung der KI-Nutzungen beauftragt ist, eines Leitfadens für bewährte Praktiken sowie die Annahme einer spezifischen Ethik-Charta für den Hof. Er betont auch die Bedeutung einer unabhängigen Governance und eines schrittweisen Akkulturationsprozesses der Richter und Justizbeamten an diese aufkommenden Technologien.
Besser verstehen
Was ist das AI Act und wie beeinflusst es den Einsatz von KI durch die Cour de cassation?
Das AI Act ist ein Vorschlag der EU für eine Regulierung, die harmonisierte Regeln für KI festlegen soll. Es beeinflusst den Einsatz von KI bei der Cour de cassation, indem es strenge Standards für Transparenz und Sicherheit für KI-Systeme im Justizbereich festlegt.
Wie hat sich die Geschichte der Pseudonymisierung im Justizbereich bis zu ihrer Einführung durch die Cour de cassation im Jahr 2019 entwickelt?
Die Pseudonymisierung von Gerichtsentscheidungen entstand als Antwort auf die zunehmenden Anforderungen an den Schutz personenbezogener Daten, wobei Gesetze wie die DSGVO der EU die Praktiken beeinflussten. Die Cour de cassation führte diese Technologie 2019 ein, um die Vertraulichkeit zu verbessern und gleichzeitig den Zugang zu Gerichtsentscheidungen zu ermöglichen.