ChatGPT – Teil 2: Anwendungsfälle bei Strafverfolgung und Gefahrenabwehr
ChatGPT wird als großer Durchbruch in der Künstlichen Intelligenz betrachtet. Ein Bericht der Investmentbank Goldman Sachs prognostiziert, dass 44 % der Aufgaben in Rechtsberufen durch KI automatisiert werden könnten. Doch welche Tätigkeiten sind konkret davon betroffen? In welchen Rechtsbereichen findet KI bereits Anwendung? Und welche Rolle spielt dabei die generative KI?
Im zweiten Teil meiner Artikelserie untersuche ich Anwendungsfälle aus dem Bereich der Strafverfolgung und Gefahrenabwehr. Hier eröffnen KI-Anwendungen vielfältige Möglichkeiten für Strafverfolgungs- und Justizbehörden. Sie können sie bei der effizienteren Bekämpfung bestimmter Arten von Straftaten nutzen: bei Finanzkriminalität, Geldwäsche und Terrorismusfinanzierung, sexuellem Missbrauch und Ausbeutung von Kindern im Internet sowie bestimmten Arten von Cyberkriminalität.
Vorhersage von Straftaten
So soll etwa mithilfe von KI vorhergesagt werden, wo und welche Art von Straftaten wahrscheinlich auftreten werden (Predictive Policing). Es sind polizeiliche Einsatzszenarien denkbar, in denen getrennte Datenbestände miteinander verknüpft und Muster in Datenbeständen erkannt werden.
Die Bundesländer Hamburg und Hessen haben bereits die Grundlage für eine automatisierte Auswertung von Datenbeständen der Polizei geschaffen. Dabei setzt Hessen auf die Software von Palantir Technologies, einem auf Big Data-Analyse spezialisierten Unternehmen.
Generative KI im Einsatz
Die in Justiz und Strafverfolgung eingesetzten Verfahren wie das Predictive Policing basieren dabei auf Technologien der Künstlichen Intelligenz wie z.B. dem Machine Learning und der Datenanalyse. Dabei werden große Mengen an historischen Kriminalitätsdaten analysiert, um Muster, Trends und Korrelationen zu identifizieren. Diese Muster werden dann verwendet, um Vorhersagen über potenzielle kriminelle Aktivitäten in bestimmten Gebieten zu treffen, um präventive Maßnahmen zu ergreifen oder Ressourcen effizienter einzusetzen.
Allerdings kommen hier auch Verfahren generativer KI zum Einsatz: Zu erwähnen ist hier die automatische Textgenerierung zur Erstellung von Berichten, Protokollen oder anderen schriftlichen Dokumenten. Generative KI-Modelle können verwendet werden, um Polizeiberichte zu erstellen oder Verdachtsmomente in Berichten zusammenzufassen.
Darüber hinaus kann generative KI bei der Analyse von großen Datenmengen, wie beispielsweise Überwachungsvideos oder Forensikdaten, eingesetzt werden. Durch den Einsatz von Bilderkennungsalgorithmen oder Sprachverarbeitungstechnologien kann generative KI dazu beitragen, Verdächtige oder kriminelle Aktivitäten zu identifizieren.
Leitplanken gefordert
Gerade in diesem Bereich wirft der Einsatz von KI eine Reihe rechtlicher, ethischer und gesellschaftspolitischer Fragen auf. So hat die Datenethikkommission mit ihren Empfehlungen für die Strategie Künstliche Intelligenz der Bundesregierung wichtige Leitplanken aufgezeigt: „Der wesentliche Maßstab für einen verantwortungsvollen Umgang mit KI ist zunächst die Verfassung, insbesondere die Grundrechte und die Prinzipien der Rechts- und Sozialstaatlichkeit sowie das Demokratieprinzip. Dies umfasst u.a. den Schutz der individuellen Selbstbestimmung einschließlich der Hoheit über personenbezogene Daten, wozu auch die Transparenz der Unternehmen gegenüber den Nutzern betreffend den Umgang mit deren Daten gehört, die Respektierung individueller Nutzerentscheidungen über den persönlichen Gebrauch einer Anwendung sowie den Schutz vor ungerechtfertigter Diskriminierung sowie die Möglichkeit, maschinelle Entscheidungen wirksam überprüfen zu können“.
Verfassungsrechtliche Bedenken
Erstmals hat auch das Bundesverfassungsgericht umfassend zum Thema Datenanalyse mit Algorithmen und KI Stellung genommen. Die Richter haben in ihrem Urteil vom 16. Februar 2023 klargestellt, dass der Einsatz der Technologie nur unter engen Voraussetzungen in mit der Verfassung in Einklang gebracht werden kann. Dies kann der Fall sein bei schwerwiegenden heimlichen Ermittlungsmaßnahmen, etwa zum Schutz besonders gewichtiger Rechtsgüter. Dazu zählen Gefahr für Leib, Leben und Freiheit einer Person sowie Bestand und Sicherheit eines Bundes oder eines Landes, wesentlicher Infrastruktureinrichtungen oder sonstiger Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen.
Auch bedarf es einer hinreichend konkretisierten Gefahr für diese besonders gewichtigen Rechtsgüter. Es müssen Tatsachen vorliegen, die zumindest in Konturen umreißen, wer wann was plant, was eine Gefahr für die besonders gewichtigen Rechtsgüter darstellt, damit die Technologie eingesetzt werden kann.
Das Urteil erging zwar nur zu Algorithmen und Künstlicher Intelligenz bei der Polizei. Doch es weist darüber hinaus und lässt sich auf den Einsatz der Technologie in anderen Bereichen übertragen. So sehr eine grundsätzliche Zulassung neuer Technologien zu begrüßen ist, so ist es doch ein klar definierter Rechtsrahmen essenziell, um Missbrauch zu verhindern.
Wir unterstützen Sie dabei, relevante Entwicklungen im IT-Recht im Blick zu behalten beraten bei allen Aspekten rund um die Digitalisierung und den Einsatz von KI und Legal Tech. Dabei helfen wir ihnen, Themen zu identifizieren und vertraglich zu regeln.
Bisher erschienen:
Dr. Daniel Kögel,
Fachanwalt für Urheber- und Medienrecht
koegel@web-partner.de