ChatGPT - Teil1: Welche Auswirkungen hat Generative KI auf den Rechtsbereich?

Am 30. November 2022 hat Open AI seinen Chatbot ChatGPT öffentlich zugänglich gemacht. Erstmals wurde für eine breite Öffentlichkeit begreifbar, was Künstliche Intelligenz ist und welche Fähigkeiten sie hat. ChatGPT wird als großer Durchbruch in der Künstlichen Intelligenz betrachtet. Einige feiern den Chatbot als eines der mächtigsten Instrumente der Menschheitsgeschichte, manchen fürchten ihn als gefährliches Instrument, das Jobs vernichtet und sogar die gesamte Menschheit ins Unheil stürzen kann.

An diesen Spekulationen möchte ich mich nicht beteiligen. In dieser Artikelserie geht es vielmehr darum, welche Chancen und Risiken Generative KI-Modelle wie ChatGPT für juristische Fragestellungen, die anwaltliche Beratung und die Urteilsfindung bieten. Ich stelle konkrete Anwendungsfälle vor und erläutere die Fragen, die sich daraus ergeben.

Dabei geht es um folgende Themenbereiche:

  • Welche Anwendungsfälle gibt es im juristischen Bereich?

  • Wie kann KI im Bereich der Legal Tech-Anwendungen eingesetzt werden?

  • Welche urheberrechtlichen Fragen ergeben sich aus dem Einsatz von KI?

  • Welche Anforderungen ergeben sich aus der Perspektive des Datenschutzes?

  • Welche einschlägigen gesetzlichen Rahmenbedingungen gibt es heute oder in naher Zukunft, insbesondere durch den AI Act?

  • Welche Chancen bietet die Datenstrategie der EU und die regulatorischen Schritte im Data Act und Data Governance Act?

Zunächst aber möchte ich die Funktionsweise von ChatGPT und anderen Generativen-KI-Anwendungen vorstellen.

 

Wie funktioniert Generative KI?

Generative KI-Modelle basieren auf neuronalen Netzwerken, die durch maschinelles Lernen trainiert wurden, um Daten zu analysieren, Muster zu erkennen und neue Inhalte zu generieren. Modelle der Generativen KI zeichnen sich dadurch aus, dass sie alle möglichen Ergebnisse produzieren können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen.

Das Kernelement dieser Generativen KI Modelle ist das sogenannte „Generative Adversarial Network“ (GAN). Bei einem GAN besteht das Modell aus zwei Hauptkomponenten: dem Generator und dem Diskriminator.

Der Generator erzeugt neue Daten, indem er eine zufällige Eingabe als Ausgangspunkt nimmt und sie durch das Netzwerk leitet. Das Ziel des Generators ist es, Ergebnisse zu erzeugen, die menschenähnlich oder kreativ sind. Der Generator wird während des Trainings ständig verbessert, indem er mit den Ausgaben des Diskriminators verglichen wird.

Der Diskriminator ist der zweite Teil des Modells. Er wir darauf trainiert, zwischen generierten Daten und echten Daten zu unterscheiden. Er erhält sowohl vom Generator generierte Daten als auch echte Daten und versucht, sie voneinander zu unterscheiden. Der Diskriminator wird ebenfalls während des Trainings verbessert, indem er seine Fähigkeit zur Unterscheidung zwischen realen und generierten Daten stärkt.

Während des Trainings werden Generator und Diskriminator abwechselnd trainiert. Dabei versucht der Generator, den Diskriminator zu überlisten, indem er immer überzeugendere Daten generiert. Der Diskriminator wiederum versucht, die generierten Daten zu erkennen und von den realen Daten zu unterscheiden. Durch diese Angriffe lernen sowohl der Generator als auch der Diskriminator, ihre Fähigkeiten zu verbessern, so dass der Generator im Laufe der Zeit immer realistischere und kreativere Inhalte generieren kann.

 

Was macht ChatGPT besonders?

ChatGPT zeichnet sich durch seine besonderen Fähigkeiten zur Interaktion mit dem Nutzer aus. Über die Texteingabe kann man mit der KI ähnlich wie in einem Chat kommunizieren. Die KI wurde darauf trainiert, auf natürliche Spracheingaben zu reagieren und umfangreiche, kontextbezogene Antworten zu generieren.

ChatGPT basiert auf der GPT-3.5-Architektur, die über 175 Milliarden Parameter und 800 Gigabyte an Speicherkapazität besitzt. Im Vergleich zu früheren Versionen von GPT bietet GPT-3.5 eine verbesserte Sprachverarbeitungsfähigkeit und ein tieferes Verständnis von Texten. Damit ist der Chatbot in der Lage, Sachverhalte einfach zu erklären und unterschiedliche Textformate wie etwa Nachrichten, Mails, Zusammenfassungen und sogar Vertragstexte zu schreiben. Dafür wurde die KI mit Millionen von Texten aus dem Internet, aus sozialen Medien, Online-Foren, Zeitungsartikeln und Büchern trainiert.

 

Grenzen Generativer KI-Modelle

Unabhängig von ihrer konkreten Programmierung hängt die Qualität der Ergebnisse von Generativen KI-Modellen vor allem von zwei Faktoren ab:

  1. Der Quellenbasis: KI-Modelle sind nur so gut, wie die Quellen, aus denen sie ihr Wissen beziehen. Die Modelle können nicht zwischen zuverlässigen und weniger zuverlässigen Quellen unterscheiden und sind nicht darauf trainiert, die Richtigkeit oder Genauigkeit von Informationen zu bewerten. Konkret heißt das, Fehler, Vorurteile, Falschinformationen in den Quellen haben Auswirkungen auf die Ergebnisse. Außerdem haben die Trainingsdaten eine zeitliche Grenze. Aktuell ist ChatGPT zum Beispiel auf Daten trainiert, die bis zum September 2021 reichen.

  2. Ihrer Konstruktionsweise, die auf Wahrscheinlichkeit anstelle von Wahrheit setzt: Generative KI-Modelle haben kein konsistentes Weltbild und bisher noch keine logischen Fähigkeiten, mit denen sie ihre Ergebnisse abgleichen. Sie „verstehen“ daher nicht den Inhalt ihrer Aussagen. Es handelt sich um statistische Modelle, die aufgrund einer Wahrscheinlichkeitsfunktion die plausibelsten Ergebnisse finden. Dabei können sie ähnlich wie Menschen halluzinieren. In diesen Fällen erfinden sie Sachverhalte und Fakten. Sie haben keinen Sensor für den Wahrheitsgehalt einer Aussage, sondern sind darauf trainiert, konsistente Ergebnisse zu produzieren.

Daher sollten die Ergebnisse von ChatGPT und anderen Generativen KI-Modellen immer mit Vorsicht betrachtet werden. Der kritische Menschenverstand wird dabei immer noch gebraucht, um Wahrheitsgehalt und Logik der Ergebnisse zu prüfen.

Dr. Daniel Kögel,
Fachanwalt für Urheber- und Medienrecht
koegel@web-partner.de