Колись ідея “вгадувати злочини” існувала лише у книжках та фільмах. Там комп’ютер попереджав поліцію ще до того, як правопорушення траплялося. У 2020-х роках це вже не фантазія. Штучний інтелект допомагає помічати небезпечні слова й сигнали в інтернеті раніше, ніж вони перетворюються на погрози або злочинні конфлікти. У Берлінському технічному університеті (Technische Universität Berlin) стартував дослідницький стартап з елементами програмного додатка “KISTRA – Використання штучного інтелекту для раннього виявлення злочинів” (KISTRA – Einsatz von Künstlicher Intelligenz zur Früherkennung von Straftaten). Вчені Роберт Пельцер (Robert Peltzer) та Майкл Гане (Michael Hahne) працювали над розробкою, яка б могла навчити комп’ютер швидко переглядати гори онлайн-повідомлень і відкладати ті, де може ховатися справжня небезпека.
Як ШІ допомагає поліції?

Прогнозна поліція ще не стала такою ж звичною, як камери на вулицях, але за останні роки сильно змінилася. У XXI столітті системи зі задіюванням ШІ можна умовно поділити на три напрямки. Перший – штучний інтелект, який намагається передбачити злочини у реальному житті. Другий – експериментальні дослідження. Третій – проєкти, про які вже оголосили, але вони ще не почали працювати. У деяких країнах деякі результати вже є.
Один із найяскравіших прикладів – Дубай. Там поліція повідомила, що після впровадження інструменту штучного інтелекту кількість тяжких злочинів зменшилася на 25% відсотків. А менш тяжких злочинів – на 7,1%. Працює це доволі просто. Програма перевіряє старі звіти про злочини й порівнює їх із тим, що відбувається на поточний момент. Шукає повторення: де, коли й за яких умов подібне вже траплялося раніше. На основі цих даних система підказує, у яких районах і в який час ризик правопорушень зростає. Тому поліція може заздалегідь спрямувати туди людей і ресурси, щоб передбачити злочин.
Етичний ШІ у роботі правоохоронців

Науковці Берлінського технічного університету (Technische Universität Berlin) вирішили використати ШІ в іншому ракурсі. Як пояснив журналістам доктор Роберт Пельцер (Robert Peltzer), штучний інтелект навчили допомагати поліції швидше виявляти мову ненависті з кримінальним змістом. Над проєктом працював дослідницький консорціум KISTRA, який фінансується Федеральним міністерством освіти і досліджень Німеччини (Bundesministerium für Bildung und Forschung, BMBF). Йдеться про такі аспекти, як підбурювання до ненависті, котрі часто ховаються серед тисяч звичайних повідомлень. Системи працюють із дуже великими обсягами даних і допомагають відокремлювати від спамного галасу сигнали, які реально небезпечні.
Зібрана команда проєкту KISTRA окремо зосередилася на правилах і межах. Дослідники сформували етичні вимоги до використання таких інструментів у поліції. Йдеться про якість алгоритмів, відсутність дискримінації та збереження головного принципу: остаточні рішення має ухвалювати людина, а не комп’ютер. До роботи залучали й експертів із правоохоронних органів. Вони допомагали створювати спеціальні набори даних і позначали приклади підбурювання до ненависті, показували їх програмі та пояснювали, що саме має реальну загрозу.
Від навчання до реальних сигналів

Створений берлінськими вченими інструмент працює доволі просто. За словами доктора Роберта Пельцера, спочатку в систему завантажують дані, які потрібно перевірити. Це можуть бути дописи й коментарі з онлайн-платформ, наприклад, з каналів у Telegram. Штучний інтелект аналізує ці матеріали й оцінює, наскільки вони схожі на відомі йому приклади “мови ненависті”. Після цього результати переглядають і додатково аналізують фахівці правоохоронних органів.
Над проєктом KISTRA працював також науковець Берлінського технічного університету Майкл Гане (Michael Hahne), який контролював ширший контекст. За його словами, команда проєкту звертала увагу не лише на технічні деталі, а й на аспект громадянських свобод. Це справедливість моделей штучного інтелекту, прозорість їхньої роботи, автономія людей, які оцінюють результати, а також те, наскільки законною та обґрунтованою є мета такого використання програми. Всі ці моменти стали основою для вимог до регулювання ШІ у галузі поліційної безпеки.
Користь ШІ для поліції

У проєкті KISTRA команда сформувала набір правил для безпечного та етичного використання штучного інтелекту у роботі поліції. До речі, Європейський парламент ухвалив Регламент про штучний інтелект, де теж є правила для органів безпеки. Там багато важливих вимог, наприклад, щоб системи були надійними та не дискримінували людей. Але доктор Пельцер підкреслив: складно зрозуміти, що обраний текст означає в реальності і як оцінювати алгоритм.
За його словами, для роботи моделей ШІ потрібна спеціальна інфраструктура. А також способи “підтримки” систем, щоб вони “вчилися” на нових даних, які з’являються під час роботи. Також поліція має спочатку перевіряти якість алгоритмів, а потім сертифікувати їх. З етичного боку важливо, щоб результати моделей перевіряли зовнішні органи. Дані для навчання мають бути збалансованими та враховувати менталітет різних груп людей.
Етика та контроль

Фахівці відзначили й інші складнощі. Алгоритми необхідно зробити такими, щоб вони ігнорували характеристики, які не мають значення для злочину: релігію, походження або інші моменти. Важливо також, щоб процес роботи ШІ можна було відстежити й зрозуміти, за яким принципом програма ухвалює рекомендації, постійно його покращувати. Технічно це означає показувати взаємозв’язки у даних, користувачам із поліції необхідна документація про процес прийняття рішень.
У сучасному світі дуже важливо мати програми на зразок створеної KISTRA, бо люди проводять в інтернеті значну частину життя. Соцмережі, чати, форуми – там відбуваються конфлікти, сварки, зустрічаються навіть погрози, які раніше залишалися непоміченими. Без допомоги сучасних технологій поліція просто не встигала б все відстежувати. Крім того, сучасні розробки дають змогу правоохоронцям не “тонути” у морі інформації й концентруватися на найважливішому.
Як KISTRA допомагає поліції?

Користь від KISTRA величезна. Наприклад, правоохоронні органи можуть отримувати повідомлення про злочини на ґрунті ненависті з різних Telegram-каналів, пов’язаних з ультраправими або конспірологічними середовищами. Замість ручного перегляду десятків тисяч дописів можна буде залучити систему, і вона допоможе швидко відсіяти найризикованіші. Це дасть змогу співробітникам витрачати більше часу на глибокий аналіз конкретних справ і на пошук підозрюваних. Вивільниться час на розслідування інших злочинів, поліціянти зможуть швидше реагувати на реальні загрози.
Але не варто забувати, що ефект від ШІ для перевірки соцмереж залежить від багатьох факторів. Науковець Майкл Гане підкреслив: стримувальна сила спрацьовує лише тоді, коли люди розуміють: їхні злочинні дії можуть мати наслідки. Також важливо, наскільки безпечно вони почуваються у соцмережах, чи здатні приховати свою особу в інтернеті. Учасники бесід онлайн мають самі усвідомлювати, що їхні дії можуть призвести до проблем із законом. Крім того, ШІ спочатку лише допомагає робити кримінальний контент більш помітним. А дізнатися, хто ховається за ніком користувача, – це вже зовсім інше питання.
Як разом швидше боротися зі злочинами онлайн?

Методи штучного інтелекту – лише одна частина великої роботи, яка допомагає краще боротися зі злочинними намірами в інтернеті. Далеко не все залежить від машин. Адже саме люди переглядають результати ШІ, вирішують, що робити з отриманою інформацією, помічають важливі деталі, які програма могла не врахувати. Без цього система просто показувала б сигнали, тож реальні рішення залишаються за спеціалістами.
Важливо враховувати й те, що створеним системам треба постійно “вчитися”. Кожен новий сигнал чи ситуація додають нову інформацію, щоб наступного разу ШІ помітила схожу проблему швидше. Це теж треба контролювати, поповнювати базу, сортувати. На думку авторів новинки, залишається чимало важливих нюансів, які потребують доробки. Але у цілому вдосконалити її та використовувати потім на практиці – цілком реально.
Джерела:
- https://www.tu.berlin/news/interviews/hasskriminalitaet-im-internet
- https://visnyk.kh.ua/web/uploads/pdf/32(3)_2025-300-318.pdf
- https://karchevskiy.com/2020/11/06/ai-vs-crime/
- https://www.unite.ai/uk/is-ai-getting-better-at-predicting-crime/
- https://www.dw.com/ru/borba-s-hejterami-v-socsetjah-v-germanii-budut-novye-pravila/a-60573762