Früher war die Idee, Verbrechen vorherzusagen, nur ein Thema in Büchern und Filmen. Dort warnten Computer die Polizei, noch bevor eine Straftat überhaupt begangen wurde. In den 2020er Jahren ist dies keine Fantasie mehr. Künstliche Intelligenz hilft dabei, gefährliche Wörter und Signale im Internet zu erkennen, bevor sie sich in Bedrohungen oder kriminelle Konflikte verwandeln. An der Technischen Universität Berlin startete das Forschungsprojekt mit Elementen einer Software-Anwendung KISTRA – Einsatz von Künstlicher Intelligenz zur Früherkennung von Straftaten. Die Wissenschaftler Robert Peltzer und Michael Hahne arbeiteten an einer Entwicklung, die dem Computer beibringen könnte, Unmengen an Online-Nachrichten schnell zu scannen und jene auszusortieren, in denen sich eine reale Gefahr verbergen könnte. Mehr dazu auf berlinfuture.eu.
Wie hilft KI der Polizei?

Predictive Policing ist zwar noch nicht so alltäglich wie Kameras auf den Straßen, hat sich aber in den letzten Jahren stark verändert. Im 21. Jahrhundert lassen sich solche Systeme unter Einsatz von KI grob in drei Richtungen unterteilen. Erstens: Künstliche Intelligenz, die versucht, Verbrechen im realen Leben vorherzusagen. Zweitens: experimentelle Studien. Drittens: Projekte, die bereits angekündigt wurden, aber noch nicht in Betrieb sind. In einigen Ländern gibt es bereits erste Ergebnisse.
Eines der anschaulichsten Beispiele ist Dubai. Dort berichtete die Polizei, dass nach der Einführung eines KI-Werkzeugs die Zahl der schweren Straftaten um 25 % gesunken ist. Weniger schwere Straftaten gingen um 7,1 % zurück. Das Funktionsprinzip ist recht simpel. Das Programm überprüft alte Kriminalitätsberichte und vergleicht sie mit dem aktuellen Geschehen. Es sucht nach Wiederholungen: wo, wann und unter welchen Bedingungen Ähnliches bereits früher passiert ist. Auf Basis dieser Daten gibt das System Hinweise darauf, in welchen Vierteln und zu welcher Zeit das Risiko für Straftaten steigt. So kann die Polizei vorab Personal und Ressourcen dorthin schicken, um das Verbrechen zu verhindern.
Ethische KI im Dienste der Strafverfolgung

Wissenschaftler der Technischen Universität Berlin haben beschlossen, KI aus einem anderen Blickwinkel einzusetzen. Wie Dr. Robert Peltzer gegenüber Journalisten erklärte, wurde die Künstliche Intelligenz darauf trainiert, der Polizei zu helfen, Hassrede mit kriminellem Inhalt schneller zu identifizieren. An dem Projekt arbeitete das Forschungskonsortium KISTRA, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird. Es geht um Aspekte wie Volksverhetzung, die sich oft unter Tausenden von gewöhnlichen Nachrichten versteckt. Die Systeme arbeiten mit sehr großen Datenmengen und helfen dabei, reale Gefahrensignale vom Rauschen des Spams zu trennen.
Das zusammengestellte Team des KISTRA-Projekts konzentrierte sich besonders auf Regeln und Grenzen. Die Forscher formulierten ethische Anforderungen an den Einsatz solcher Werkzeuge bei der Polizei. Dabei geht es um die Qualität der Algorithmen, das Verbot von Diskriminierung und die Wahrung des Hauptprinzips: Die endgültige Entscheidung muss der Mensch treffen, nicht der Computer. In die Arbeit wurden auch Experten aus den Strafverfolgungsbehörden einbezogen. Sie halfen bei der Erstellung spezieller Datensätze, identifizierten Beispiele für Hassrede, zeigten sie dem Programm und erklärten, was genau eine reale Bedrohung darstellt.
Vom Training bis zu realen Signalen

Das von den Berliner Wissenschaftlern entwickelte Werkzeug funktioniert recht einfach. Laut Dr. Robert Peltzer werden zunächst Daten in das System geladen, die überprüft werden müssen. Das können Beiträge und Kommentare von Online-Plattformen sein, zum Beispiel aus Telegram-Kanälen. Die Künstliche Intelligenz analysiert diese Materialien und bewertet, wie sehr sie den ihr bekannten Beispielen für Hassrede ähneln. Danach sichten und analysieren Spezialisten der Strafverfolgungsbehörden die Ergebnisse zusätzlich.
Am KISTRA-Projekt arbeitete auch der Wissenschaftler der TU Berlin, Michael Hahne, der den breiteren Kontext im Blick behielt. Ihm zufolge achtete das Projektteam nicht nur auf technische Details, sondern auch auf den Aspekt der bürgerlichen Freiheiten. Dazu gehören die Fairness der KI-Modelle, die Transparenz ihrer Arbeit, die Autonomie der Menschen, die die Ergebnisse bewerten, sowie die Frage, wie rechtmäßig und begründet das Ziel eines solchen Programmeinsatzes ist. All diese Punkte bildeten die Grundlage für die Anforderungen an die KI-Regulierung im Bereich der polizeilichen Sicherheit.
Nutzen der KI für die Polizei

Im KISTRA-Projekt erarbeitete das Team ein Regelwerk für den sicheren und ethischen Einsatz von Künstlicher Intelligenz in der Polizeiarbeit. Übrigens hat das Europäische Parlament die KI-Verordnung verabschiedet, die ebenfalls Regeln für Sicherheitsbehörden enthält. Darin gibt es viele wichtige Anforderungen, etwa dass die Systeme zuverlässig sein müssen und Menschen nicht diskriminieren dürfen. Doch Dr. Peltzer betonte: Es sei schwierig zu verstehen, was ein gewählter Text in der Realität bedeutet und wie der Algorithmus zu bewerten ist.
Für den Betrieb von KI-Modellen sei eine spezielle Infrastruktur erforderlich. Zudem brauche es Methoden zur Unterstützung der Systeme, damit diese aus neuen Daten lernen, die während der Arbeit anfallen. Auch müsse die Polizei zunächst die Qualität der Algorithmen prüfen und sie anschließend zertifizieren. Aus ethischer Sicht ist es wichtig, dass die Ergebnisse der Modelle von externen Stellen überprüft werden. Die Trainingsdaten müssen ausgewogen sein und die Mentalität verschiedener Bevölkerungsgruppen berücksichtigen.
Ethik und Kontrolle

Die Spezialisten wiesen auch auf andere Schwierigkeiten hin. Algorithmen müssen so gestaltet werden, dass sie Merkmale ignorieren, die für die Straftat keine Bedeutung haben: Religion, Herkunft oder andere Aspekte. Wichtig ist auch, dass der Arbeitsprozess der KI nachvollziehbar ist und man versteht, nach welchem Prinzip das Programm Empfehlungen ausspricht, um es ständig zu verbessern. Technisch bedeutet das, Zusammenhänge in den Daten aufzuzeigen; Nutzer bei der Polizei benötigen eine Dokumentation über den Entscheidungsprozess.
In der modernen Welt ist es sehr wichtig, Programme nach dem Vorbild von KISTRA zu haben, da Menschen einen erheblichen Teil ihres Lebens im Internet verbringen. Soziale Netzwerke, Chats, Foren – dort finden Konflikte, Streitigkeiten und sogar Drohungen statt, die früher unbemerkt blieben. Ohne die Hilfe moderner Technologien käme die Polizei mit der Überwachung schlicht nicht hinterher. Zudem ermöglichen moderne Entwicklungen es den Gesetzeshütern, nicht im Informationsmeer zu versinken und sich auf das Wichtigste zu konzentrieren.
Wie hilft KISTRA der Polizei?

Der Nutzen von KISTRA ist enorm. Beispielsweise können Strafverfolgungsbehörden Meldungen über Hasskriminalität aus verschiedenen Telegram-Kanälen erhalten, die mit rechtsextremen oder verschwörungsideologischen Gruppen in Verbindung stehen. Statt Zehntausende von Beiträgen manuell zu sichten, kann das System hinzugezogen werden, um die gefährlichsten schnell herauszufiltern. Dies gibt den Beamten die Möglichkeit, mehr Zeit für die tiefe Analyse konkreter Fälle und die Suche nach Verdächtigen aufzuwenden. Es wird Zeit für die Untersuchung anderer Verbrechen frei, und Polizisten können schneller auf reale Bedrohungen reagieren.
Man darf jedoch nicht vergessen, dass der Effekt von KI zur Überprüfung sozialer Netzwerke von vielen Faktoren abhängt. Der Wissenschaftler Michael Hahne unterstrich: Die abschreckende Wirkung greift nur dann, wenn die Menschen verstehen, dass ihre kriminellen Handlungen Konsequenzen haben können. Wichtig ist auch, wie sicher sie sich in sozialen Netzwerken fühlen und ob sie in der Lage sind, ihre Identität im Internet zu verbergen. Teilnehmer von Online-Gesprächen müssen sich selbst bewusst sein, dass ihre Handlungen zu Problemen mit dem Gesetz führen können. Zudem hilft KI zunächst nur dabei, kriminelle Inhalte sichtbarer zu machen. Herauszufinden, wer sich hinter einem Benutzernamen verbirgt, ist eine ganz andere Frage.
Wie bekämpft man gemeinsam Online-Verbrechen schneller?

Methoden der Künstlichen Intelligenz sind nur ein Teil einer großen Arbeit, die dabei hilft, kriminelle Absichten im Internet besser zu bekämpfen. Bei weitem nicht alles hängt von Maschinen ab. Schließlich sind es Menschen, die die Ergebnisse der KI sichten, entscheiden, was mit den erhaltenen Informationen zu tun ist, und wichtige Details bemerken, die das Programm möglicherweise übersehen hat. Ohne dies würde das System lediglich Signale anzeigen, sodass die realen Entscheidungen bei den Fachleuten liegen.
Es ist auch zu berücksichtigen, dass die erstellten Systeme ständig lernen müssen. Jedes neue Signal oder jede neue Situation fügt neue Informationen hinzu, damit die KI beim nächsten Mal ein ähnliches Problem schneller bemerkt. Auch dies muss kontrolliert, die Datenbank ergänzt und sortiert werden. Nach Ansicht der Autoren der Neuerung bleiben viele wichtige Nuancen, die einer Nachbesserung bedürfen. Insgesamt ist es jedoch absolut realistisch, sie zu perfektionieren und später in der Praxis einzusetzen.
Quellen:
- https://www.tu.berlin/news/interviews/hasskriminalitaet-im-internet
- https://visnyk.kh.ua/web/uploads/pdf/32(3)_2025-300-318.pdf
- https://karchevskiy.com/2020/11/06/ai-vs-crime/
- https://www.unite.ai/uk/is-ai-getting-better-at-predicting-crime/
- https://www.dw.com/ru/borba-s-hejterami-v-socsetjah-v-germanii-budut-novye-pravila/a-60573762