Когда-то идея “угадывать преступления” существовала только в книгах и фильмах. Там компьютер предупреждал полицию еще до того, как правонарушение происходило. В 2020-х годах это уже не фантазия. Искусственный интеллект помогает замечать опасные слова и сигналы в интернете раньше, чем они превращаются в угрозы или преступные конфликты. В Берлинском техническом университете (Technische Universität Berlin) стартовал исследовательский стартап с элементами программного приложения “KISTRA – Использование искусственного интеллекта для раннего выявления преступлений” (KISTRA – Einsatz von Künstlicher Intelligenz zur Früherkennung von Straftaten). Ученые Роберт Пельцер (Robert Peltzer) и Майкл Гане (Michael Hahne) трудились над разработкой, которая могла бы научить компьютер быстро просматривать горы онлайн-сообщений и откладывать те, где может скрываться реальная опасность. Далі на berlinfuture.eu.
Как ИИ помогает полиции?

Прогнозная полиция еще не стала такой же привычной, как камеры на улицах, но за последние годы сильно изменилась. В XXI веке такие системы с задействованием ИИ можно условно разделить на три направления. Первое – искусственный интеллект, который пытается предсказать преступления в реальной жизни. Второе – экспериментальные исследования. Третье – проекты, о которых уже объявили, но они еще не начали работать. В некоторых странах определенные результаты уже есть.
Один из самых ярких примеров – Дубай. Там полиция сообщила, что после внедрения инструмента искусственного интеллекта количество тяжких преступлений уменьшилось на 25%. А менее тяжких преступлений – на 7,1%. Работает это довольно просто. Программа проверяет старые отчеты о преступлениях и сравнивает их с тем, что происходит в текущий момент. Ищет повторения: где, когда и при каких условиях подобное уже случалось ранее. На основе этих данных система подсказывает, в каких районах и в какое время риск правонарушений возрастает. Поэтому полиция может заранее направить туда людей и ресурсы, чтобы предотвратить преступление.
Этичный ИИ на службе у правоохранителей

Ученые Берлинского технического университета решили задействовать ИИ под другим углом. Как объяснил журналистам доктор Роберт Пельцер (Robert Peltzer), искусственный интеллект научили помогать полиции быстрее выявлять язык ненависти с криминальным содержанием. Над проектом работал исследовательский консорциум KISTRA, который финансируется Федеральным министерством образования и исследований Германии (Bundesministerium für Bildung und Forschung, BMBF). Речь идет о таких аспектах, как подстрекательства к ненависти, которые часто скрываются среди тысяч обычных сообщений. Системы работают с очень большими объемами данных и помогают отделять от спамного шума сигналы, которые реально опасны.
Собранная команда проекта KISTRA отдельно сосредоточилась на правилах и границах. Исследователи сформулировали этические требования к использованию таких инструментов в полиции. Речь идет о качестве алгоритмов, отсутствии дискриминации и сохранении главного принципа: окончательные решения должен принимать человек, а не компьютер. К работе привлекали и экспертов из правоохранительных органов. Они помогали создавать специальные наборы данных и выделяли примеры подстрекательства к ненависти, показывали их программе и объясняли, что именно несет реальную угрозу.
От обучения до реальных сигналов

Созданный берлинскими учеными инструмент работает довольно просто. По словам доктора Роберта Пельцера, сначала в систему загружают данные, которые нужно проверить. Это могут быть посты и комментарии с онлайн-платформ, например, с каналов в Telegram. Искусственный интеллект анализирует эти материалы и оценивает, насколько они похожи на известные ему примеры “языка ненависти”. После этого результаты просматривают и дополнительно анализируют специалисты правоохранительных органов.
Над проектом KISTRA работал также ученый Берлинского технического университета Майкл Гане (Michael Hahne), который контролировал более широкий контекст. По его словам, команда проекта обращала внимание не только на технические детали, но и на аспект гражданских свобод. Это справедливость моделей искусственного интеллекта, прозрачность их работы, автономия людей, которые оценивают результаты, а также то, насколько законной и обоснованной является цель такого использования программы. Все эти моменты стали основой для требований к регулированию ИИ в сфере полицейской безопасности.
Польза ИИ для полиции

В проекте KISTRA команда сформировала набор правил для безопасного и этичного использования искусственного интеллекта в работе полиции. Кстати, Европейский парламент принял Регламент об искусственном интеллекте, где тоже есть правила для органов безопасности. Там много важных требований, например, чтобы системы были надежными и не дискриминировали людей. Но доктор Пельцер подчеркнул: сложно понять, что выбранный текст означает в реальности и как оценивать алгоритм.
По его словам, для работы моделей ИИ нужна специальная инфраструктура. А также способы “поддержки” систем, чтобы они “учились” на новых данных, которые появляются во время работы. Также полиция должна сначала проверять качество алгоритмов, а затем сертифицировать их. С этической точки зрения важно, чтобы результаты моделей проверяли внешние органы. Данные для обучения должны быть сбалансированы и учитывать менталитет разных групп людей.
Этика и контроль

Специалисты отметили и другие сложности. Алгоритмы необходимо сделать такими, чтобы они игнорировали характеристики, не имеющие значения для преступления: религию, происхождение или другие моменты. Важно также, чтобы процесс работы ИИ можно было отслеживать и понимать, по какому принципу программа одобряет рекомендации, постоянно его улучшая. Технически это означает показывать взаимосвязи в данных, пользователям из полиции необходима документация о процессе принятия решений.
В современном мире очень важно иметь программы по примеру созданной KISTRA, потому что люди проводят в интернете значительную часть жизни. Соцсети, чаты, форумы – там происходят конфликты, ссоры, встречаются даже угрозы, которые раньше оставались незамеченными. Без помощи современных технологий полиция просто не успевала бы все отслеживать. Кроме того, современные разработки позволяют правоохранителям не “тонуть” в море информации и концентрироваться на самом важном.
Как KISTRA помогает полиции?

Польза от KISTRA огромна. Например, правоохранительные органы могут получать сообщения о преступлениях на почве ненависти с различных Telegram-каналов, связанных с ультраправыми или конспирологическими сообществами. Вместо ручного просмотра десятков тысяч постов можно будет привлечь систему, и она поможет быстро отсечь самые опасные. Это даст возможность сотрудникам тратить больше времени на глубокий анализ конкретных дел и на поиск подозреваемых. Освободится время на расследование других преступлений, полицейские смогут быстрее реагировать на реальные угрозы.
Но не стоит забывать, что эффект от ИИ для проверки соцсетей зависит от многих факторов. Ученый Майкл Гане подчеркнул: сдерживающая сила срабатывает только тогда, когда люди понимают: их преступные действия могут иметь последствия. Также важно, насколько безопасно они себя чувствуют в соцсетях, способны ли скрыть свою личность в интернете. Участники онлайн-бесед должны сами осознавать, что их действия могут привести к проблемам с законом. Кроме того, ИИ сначала лишь помогает делать криминальный контент более заметным. А узнать, кто скрывается за ником пользователя, – это уже совсем другой вопрос.
Как вместе быстрее бороться с преступлениями онлайн?

Методы искусственного интеллекта – лишь одна часть большой работы, которая помогает лучше бороться с преступными намерениями в интернете. Далеко не все зависит от машин. Ведь именно люди просматривают результаты ИИ, решают, что делать с полученной информацией, замечают важные детали, которые программа могла не учесть. Без этого система просто показывала бы сигналы, так что реальные решения остаются за специалистами.
Важно учитывать и то, что созданным системам нужно постоянно “учиться”. Каждый новый сигнал или ситуация добавляют новую информацию, чтобы в следующий раз ИИ заметила похожую проблему быстрее. Это тоже нужно контролировать, пополнять базу, сортировать. По мнению авторов новинки, остается множество важных нюансов, которые требуют доработки. Но в целом усовершенствовать ее и использовать потом на практике – вполне реально.
Источники:
- https://www.tu.berlin/news/interviews/hasskriminalitaet-im-internet
- https://visnyk.kh.ua/web/uploads/pdf/32(3)_2025-300-318.pdf
- https://karchevskiy.com/2020/11/06/ai-vs-crime/
- https://www.unite.ai/uk/is-ai-getting-better-at-predicting-crime/
- https://www.dw.com/ru/borba-s-hejterami-v-socsetjah-v-germanii-budut-novye-pravila/a-60573762