ChatGPT – Teil 3: Generative KI in der richterlichen Urteilsfindung

Rund 44 % der Aufgaben in Rechtsberufen können durch Künstliche Intelligenz (KI) automatisiert werden. Das sagt zumindest eine Analyse der Investmentbank Goldman Sachs voraus. Doch welche Bereiche sind davon besonders betroffen? Im dritten Teil meiner Artikelserie untersuche ich Anwendungsfälle aus dem Bereich der richterlichen Urteilsfindung.

 

Unterstützung bei Entscheidungsfindung

KI kann Richter dabei unterstützen, juristische Fachkenntnisse und Informationen bereitzustellen, die bei der Entscheidungsfindung helfen und hierfür eine Grundlage bilden können. Beispielsweise kann KI bei der Analyse von Rechtsfällen und juristischer Präzedenz eingesetzt werden, um ähnliche Fälle zu identifizieren, relevante Gesetze und Rechtsprechung zu durchsuchen und Argumente zu unterstützen (predictive analysis). Dies kann den Richtern helfen, fundierte und konsistente Entscheidungen zu treffen.

So hat etwa ein pakistanisches Gericht ChatGPT-4 verwendet, um in einem Fall der Entführung Minderjähriger eine Entscheidung über die Gewährung von Kaution in einem Verfahren gegen einen Jugendlichen zu treffen. Es wurde eine Kautionszahlung gewährt. Zuvor hatte das Gericht ChatGPT-4 bereits in einem Zivilverfahren eingesetzt. Solche Beispiele machen deutlich, dass Verfahren der KI in der Urteilsfindung bereits zur Vorbereitung von richterlichen Entscheidungen genutzt werden.

Dabei sind der Entscheidungsfindung durch KI in Deutschland zumindest enge Grenzen gesetzt: Richter müssen grundsätzlich ihre Entscheidungen begründen. Dies bedeutet, dass sie die relevanten Tatsachen sowie rechtlichen Normen in ihrer Anwendung durch die Rechtsprechung darlegen müssen, um ihre Schlussfolgerungen nachvollziehbar zu machen. Wenn ein Richter vorbereitende Arbeiten von Dritten verwendet, ist er verpflichtet, diese inhaltlich vollständig nachzuvollziehen und auch nur dann in seiner Entscheidung zu berücksichtigen. Das gilt natürlich auch für Ergebnisse, die von einer KI geliefert wurden.

Im Grundsatz dürfen Richter generative KI-Systeme und predictive analysis ebenso für die Entscheidungsfindung verwenden, wie dies bislang schon unter Rückgriff auf Datenbanken und sonstige Software der Fall war. Die rechtliche Zulässigkeit z.B. von Large Language Models (LLM) wie GPT hängt jedoch entscheidend davon ab, dass eine KI stets nur als reines Hilfsmittel Verwendung findet, die generierten Texte in jedem Einzelfall vollumfänglich auf tatsächliche und rechtliche Richtigkeit hin überprüft werden und nie unbesehen eine menschliche Entscheidung ersetzen. Bereits die automatisierte Erstellung eines Entscheidungsentwurfs kann allerdings eine erhebliche Arbeitserleichterung darstellen.

 

Grundlagenpapier KI in der Justiz

Ein Grundlagenpapier des Bayerischen OLG und des BGH vom Mai 2022 untersucht den Einsatz von KI und algorithmischen Systemen in der Justiz. Dabei werden die KI-Anwendungen wie wissensbasierte Systeme, maschinelles Lernen und Deep Learning behandelt. Systeme mit generativer KI tauchen hier allerdings eher noch am Rand auf, nachdem die Diskussion um solche Systeme erst Ende 2022 mit der Vorstellung von ChatGPT entflammte.

Das Papier identifiziert 19 Projekte aus dem Bereich KI/ algorithmische Systeme, die von Bund und Ländern konkret betrieben werden. Die meisten Projekte waren im Bereich der wissensbasierten Systeme angesiedelt (Indexierung, Verschlagwortung, Textvergleichung und -aufbereitung) und der Mustererkennung (Maschine Learning/ Deep Learning).

Generative Verfahren der KI lassen sich in folgenden Projektkategorien finden:

  • Textgenerierung, Unterstützung der Entscheidungsfindung in einfach gelagerten, standardisierbaren Fällen/ Massenverfahren

  • Natürlichsprachige Dialogsysteme/ Chatbots

Die Autoren betonen, dass die rechtlichen und ethischen Grenzen des Einsatzes von KI und algorithmischer Systeme genau betrachtet werden müssen. Sie unterscheiden dabei zwischen dem Einsatz von Expertensystemen, deren Ergebnis auf transparenten Wenn-Dann-Beziehungen beruht, und Anwendungen, die auf maschinellem Lernen basieren und aufgrund ihrer technischen Ausgestaltung eine Black-Box darstellen, die es dem Richter nicht erlaubt nachzuvollziehen, wie das Ergebnis zu Stande gekommen ist.

Das betrifft insbesondere Texte, die von KI generiert wurden. Der Richter kann möglicherweise nicht vollständig nachvollziehen, wie die KI zu ihren Ergebnissen gelangt ist. Es ist schwierig, die gewichteten Tatsachen oder die Grundlagen der angewendeten Rechtsnormen darzulegen, da die Funktionsweise der KI-Modelle oft komplex und undurchsichtig ist.

Daher fordern die Autoren Einsatz von KI-Systemen: „Jedes einzelne KI-System ist auf die Einhaltung der Wertgrundlagen zu überprüfen. Dies ist durch entsprechende rechtliche Rahmenbedingungen abzusichern, wobei auch insoweit Fairness, Transparenz und Nachvollziehbarkeit gegeben sein müssen. Unabhängig von den rechtlichen und ethischen Anforderungen an einen Einsatz von KI und algorithmischen Systemen in der Justiz und seinen Grenzen sollte er stets als Mittel zur Stärkung der dritten Gewalt verstanden werden, indem es nicht etwa sein Ziel ist, Personal einzusparen, sondern vielmehr durch Entlastung Gestaltungsfreiräume im Kernbereich der Entscheidertätigkeit zu eröffnen.“

 

Keine Substitution menschlicher Entscheidungsfindung durch KI denkbar und zulässig

Besteht die Möglichkeit, dass in absehbarer Zukunft Robo-Judges Urteile fällen? Gegen diese Befürchtung, dass KI künftig automatisiert Entscheidungen trifft, sprechen in Deutschland schon verfassungsrechtliche Bedenken. Art. 92 GG gibt vor, dass die rechtsprechende Gewalt ausschließlich menschlichen Richtern vorbehalten ist. Nach Art. 97 Abs. 1 GG sind Richter unabhängig und nur dem Gesetze unterworfen, nicht also einem Algorithmus oder anderweitigen, nicht im juristischen Kontext stehenden Funktionsmechanismen eines künstlichen neuronalen Netzwerks. Auch darf der Einsatz einer KI nicht dazu führen, dass eine Person ihrem gesetzlichen Richter entzogen wird, weil sie allein einer automatisierten Entscheidung unterworfen wird (Art. 101 Abs. 1 S. 2 GG). Hierdurch würde der Mensch im Ergebnis auch zum reinen Objekt staatlicher Entscheidungsfindung degradiert, was mit dem Menschenwürdegehalt aus Art. 1 Abs. 1 GG unvereinbar wäre. Zudem wäre durch eine rein automatisierte Urteilsfindung der Anspruch auf Gewährung rechtlichen Gehörs verletzt, Art. 103 Abs. 1 GG.

Denn es spielt keine Rolle, wie weit entwickelt ein System zur Generierung von Sprachwerken auch im Hinblick auf die rechtliche Subsumtion eines Falles noch sein wird: Eine veritable „starke“ KI mit sämtlichen Qualitäten, die ein Richter über die rein rechtliche Analyse zur adäquaten Entscheidungsfindung befähigt, wird sich voraussichtlich noch lange nicht – wenn überhaupt – entwickeln lassen. Nicht nur die Aufbereitung des Sachverhalts, auch die normative Bewertung von Sachverhalten erfordert die Einbeziehung weiterer, auch außerrechtlicher Faktoren (z.B. Psychologie, Ethik, Soziologie). Recht ist im Ergebnis weit mehr als nur das Gesetz.

Wir unterstützen Sie dabei, relevante Entwicklungen im IT-Recht im Blick zu behalten beraten bei allen Aspekten rund um die Digitalisierung und den Einsatz von KI und Legal Tech. Dabei helfen wir ihnen, Themen zu identifizieren und vertraglich zu regeln.

Bisher erschienen:

Dr. Daniel Kögel,
Fachanwalt für Urheber- und Medienrecht
koegel@web-partner.de