Künstliche Intelligenz und richterliche Rechtsanwendung

26.02.2025

Künstliche Intelligenz und richterliche Rechtsanwendung

von Tanja Kernchen

Der Hype um Künstliche Intelligenz und Large Language Models, kurz LLM, lässt nicht nach, vor allem seit dem Launch von ChatGPT des US-amerikanischen Unternehmens OpenAI Ende 2022. Zugleich wird die Regulierung von intelligenten Systemen gefordert. So wurde im Sommer 2024 auf europäischer Ebene die KI-Verordnung erlassen, die einen risikobasierten Einsatz verfolgt, bestimmte Anwendungen verbietet und vor allem Pflichten für Anbieter und Betreiber von hochriskanten KI-Systemen bestimmt.

KI-Projekte in der Justiz

Nicht nur in der Wirtschaft, sondern auch in der Justiz werden intelligente Systeme entwickelt und erprobt, wie das System FraUKe, das am Amtsgericht Frankfurt am Main in Fluggastrechteverfahren unterstützend eingesetzt werden soll. Die Entwicklung eines intelligenten Systems ist in der Regel kosten- und zeitintensiv. Insbesondere für Systeme, die auf maschinellem Lernen basieren, ist Verfügbarkeit, Auswahl und Vorverarbeitung der Trainingsdaten von Bedeutung. Dies kann Entwickler vor große Herausforderungen stellen, besonders im juristischen Kontext des in Deutschland noch defizitären Zugangs zu Gerichtsentscheidungen.

Die bisher für die Justiz entwickelten Systeme sind Assistenzsysteme, die keine richterlichen Entscheidungskompetenzen übernehmen. Aber auch der unterstützende Einsatz, wie die Generierung von Textblöcken, kann die richterliche Entscheidung beeinflussen. Die KI-Verordnung stuft den Einsatz intelligenter Systeme in der Justiz richtigerweise grundsätzlich als hochriskant ein, sieht aber Ausnahmen für bestimmte vorbereitende Anwendungen vor. Für zukünftige staatliche Projekte bedeutet dies, dass auch die Justiz – als Anbieter und/oder Betreiber – die Pflichten der KI-Verordnung erfüllen muss, wie die Einführung eines Risikomanagementsystems (Art. 9 KI-VO) oder die sog. Daten-Governance (Art. 10 KI-VO).

Nutzung von LLMs für richterliche Entscheidungen

Darüber hinaus stellt sich die Frage, wie Richterinnen und Richter mit LLM umgehen (dürfen). Anders als gezielt für die Justiz entwickelte Systeme handelt es sich bei LLM um intelligente Systeme mit allgemeinem Verwendungszweck (General Purpose AI, kurz GPAI). Als Sprachmodelle können sie z.B. für Textkorrekturen, Zusammenfassungen oder auch Denkanstöße für Recherchen genutzt werden. Allerdings ist vor allem bei dem letztgenannten Einsatzbereich Vorsicht geboten, denn zum einen „halluzinieren“ LLM, d.h. sie generieren plausible Antworten auf Fragen, die scheinbar richtig sind, sich aber letztlich als tatsächlich falsch herausstellen. Sie sind nur das statistisch berechnete Ergebnis zum „Prompt“, dem Arbeitsauftrag. Die Vermeidung von Halluzinationen ist wohl eine der großen aktuellen Herausforderungen. Außerdem beruhen die meisten LLM auf intransparenten Methoden, wie Deep Learning. Diese Methoden generieren zwar hervorragende Ergebnisse, aber selbst ihre Entwickler können die Ergebnisse nicht vollständig erklären. Die Erklärbarkeit von LLM und ihren Ergebnissen dürfte wohl die zweite große Herausforderung der KI-Forschung sein.

Auch für Richterinnen und Richter gilt, dass sie die Risiken kennen müssen, wenn sie LLM oder andere intelligente Systeme einsetzen. Sie müssen die Ergebnisse kritisch hinterfragen können. Nur dann können sie die Ergebnisse beherrschen und zweckgerecht verwenden, bevor sie sich diese zu eigen machen. Aus verfassungsrechtlicher Perspektive ergibt sich dies bereits aus der richterlichen Unabhängigkeit und Gewährleistung der verfassungsrechtlichen Legitimation richterlicher Entscheidungen. Nicht zuletzt ist es eine Frage der Verantwortung. Es dürfte außer Frage stehen, dass Richterinnen und Richter wohl eine besondere Verantwortung für die staatliche Rechtsdurchsetzung haben. Vor allem aus diesem Grund ist der Einsatz von intelligenten Systemen anstelle einer richterlichen Entscheidung im Kernbereich der Rechtsprechung ausgeschlossen. Sie können (noch) keine Verantwortung übernehmen.


Tanja Kernchen ist seit 2022 Referentin in der Verwaltung des Deutschen Bundestages. Zuvor arbeitete und promovierte sie als wissenschaftliche Mitarbeiterin am Lehrstuhl für Öffentliches Recht, Medien- und Telekommunikationsrecht von Prof. Dr. Hans-Heinrich Trute. Ihr Dissertationstitel „Automatisierung und richterliche Rechtsanwendung“ erscheint in Kürze im Nomos Verlag in der Reihe „Recht und Digitalisierung“ (Band 21).