/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F8511bcb9bc3131cd979f0d7b22b5ee76.jpg)
Революція злочинів: чи може вже ШІ передбачати вбивства до того, як вони стаються
Міністерство юстиції Великої Британії спільно з поліцією та іншими відомствами працює над проєктом, що має амбіційне і водночас суперечливе завдання – за допомогою алгоритмів визначати осіб, які в майбутньому можуть стати вбивцями. Проєкт, який не рекламувався публічно, став відомий завдяки документам, отриманим правозахисною організацією Statewatch.
Використовуючи алгоритми штучного інтелекту, поліція намагається "передбачити" злочини до того, як вони відбудуться. У центрі уваги – системи predictive policing, що аналізують великі масиви даних, зокрема історію правопорушень, соціальні зв’язки та географію ризиків.
Такий підхід обіцяє революцію у боротьбі зі злочинністю, проте водночас породжує багато запитань – від ефективності до етичності. Чи здатні алгоритми справді зробити суспільство безпечнішим? І чи не ризикуємо ми при цьому перетворити превенцію на упередження?
24 Канал розповідає, як у Великій Британії працюють технології прогнозування злочинів, чому вони викликають суперечки та що про це думають правозахисники.
Як це працює: алгоритм "ризику вбивства"
Проєкт має назву Homicide Prediction Project. Він передбачає використання великих обсягів даних, зокрема, з поліцейської національної комп’ютерної системи (Police National Computer), баз міністерства юстиції та місцевої поліції Великого Манчестера.
За угодою про обмін даними між поліцією Манчестера та міністерством юстиції, в рамках розробки системи було передано інформацію про від 100 до 500 тисяч осіб. Це дані не лише про підозрюваних, а й про жертв, свідків, зниклих безвісти, людей з історією психічних захворювань або соціально вразливих груп. У документі прямо вказано, що дані про психічне здоров’я, залежності, самопошкодження та інвалідність вважаються "перспективними чинниками".
Цікаво! У минулі роки британська поліція уже намагалася впровадити аналогічні системи. У лютому 2019 року BBC повідомила, що щонайменше 14 поліцейських управлінь Великої Британії використовували або планували впровадити програмне забезпечення для прогнозування злочинності. Ці системи, які охоплюють "прогнозування карт злочинності" та "індивідуальну оцінку ризику", аналізують історичні дані для визначення потенційних "гарячих точок" злочинності або осіб, які можуть скоїти злочин чи стати жертвами.
Правозахисна організація Liberty висловила занепокоєння щодо упередженості таких систем, зазначаючи, що вони можуть посилювати наявні нерівності та дискримінацію, особливо щодо етнічних меншин та малозабезпечених громад. Liberty також підкреслила відсутність прозорості у впровадженні цих технологій.
Деякі поліцейські управління, зокрема в Ейвоні та Сомерсеті, заявили, що їхні системи не враховують дані про етнічну приналежність, стать чи адресу, щоб уникнути упередженості. Проте Liberty наполягає, що використання історичних даних, які вже можуть містити упередження, може призвести до несправедливого профілювання.
Серед компаній, що розробляють подібне програмне забезпечення, згадувалися IBM, Microsoft, Predpol та Palantir.
Алгоритм розробляється внутрішньою командою Data Science Hub при міністерстві юстиції. Завдання – знайти у наявних масивах потужні чинники ризику скоєння вбивства. Сам проєкт описано як такий, що має потенціал для майбутнього впровадження в оперативну практику.
За словами Софії Лайол, дослідниці з Statewatch, цей проєкт викликає серйозне занепокоєння з погляду прав людини та системної дискримінації.
Міністерство юстиції намагається побудувати систему, яка передбачає вбивства – це ще один страхітливий і дистопічний приклад урядових спроб створити алгоритми передбачення злочинів,
– каже Лайол.
Вона наголошує, що практика алгоритмічного прогнозування вже не раз виявляла свою необ'єктивність:
Дослідження знову й знову показують: системи, які нібито передбачають злочини, мають суттєві вади. Проте уряд просуває ШІ-системи, які починають профілювати людей як злочинців ще до того, як вони щось скоїли.
Особливе занепокоєння викликає використання чутливих даних про вразливість і психічне здоров’я: створення автоматизованого інструменту, що позначає людей як потенційно небезпечних, базуючись на даних про психічне здоров’я, залежності та інвалідність, – це вкрай настирливе і тривожне втручання.
Не перший алгоритм – і не без проблем
Це не перша спроба британської юстиції впровадити системи оцінки ризиків за допомогою даних. У кримінально-правовій системі вже функціонує інструмент OASys (Offender Assessment System), який прогнозує повторне скоєння злочину. Його оцінки впливають на рішення суддів, категоризацію ув’язнених і терміни умовного звільнення.
Утім, навіть міністерство юстиції визнає, що точність цих моделей відрізняється залежно від расової приналежності людини. В одному з досліджень мовиться про те, що модель краще прогнозує поведінку правопорушників європейського походження, ніж осіб азійського, африканського чи змішаного етнічного походження. Особливо слабо модель працює для чорношкірих правопорушників.
Що в Україні з питанням відеоспостереження
Після початку повномасштабної війни в Україні стрімко зросла кількість камер спостереження. На початку 2025 року їх уже близько 69 тисяч. Вони допомагають розкривати злочини, відстежувати підозрюваних і навіть фіксувати пересування ворожої техніки. Зокрема, завдяки їм вдалося розслідувати вбивство Ірини Фаріон та встановити особи російських військових, причетних до злочинів на Київщині.Утім, розвиток цієї системи стикається з проблемами. Законодавство наразі не регулює ані порядок встановлення камер, ані обсяг даних, які вони можуть збирати. У 2024 році МВС подало відповідний законопроєкт, але його досі не ухвалили. Суспільство хвилюється щодо потенційного зловживання, витоків персональних даних та кіберзагроз.
Ще одна проблема – технічні ризики. Частина камер раніше могла передавати дані на китайські або навіть російські сервери. МВС запевняє, що в межах своєї відповідальності мінімізувало ці ризики, однак ситуація з приватними та регіональними камерами лишається невизначеною.
З 2022 року держава витратила на закупівлю камер майже 4 мільярди гривень, переважно в тилових регіонах. Водночас 93% тендерів проходили без конкуренції.
Соціальні чинники та статистика
У 2023 році міністерство юстиції королівства провело статистичний аналіз, що вивчав зв'язок між попередніми правопорушеннями та ймовірністю скоєння вбивства. Такі дослідження, згідно з документами міністерства, використовуються як основа для вдосконалення інструментів оцінювання ризику.
У цих даних відзначалося, що більш як 20% осіб, які скоїли несексуальні вбивства, були чорношкірими.
Також зазначено, що жертви й підозрювані частіше походять із соціально неблагополучних районів. За статистикою Міністерства внутрішніх справ, у 2018 році ризик стати жертвою вбивства у чорношкірих британців був у понад 4,7 раза вищий порівняно з білими. Імовірність бути підозрюваним у вбивстві — у 8 разів вища щодо чорношкірих осіб.
Цікаво! У США експерименти поліції з прогнозуванням злочинів теж не завершилися вдало. У місті Плейнфілд у Нью-Джерсі алгоритм передбачення злочинів, розроблений компанією Geolitica (раніше PredPol), майже не збігся з реальними злочинами. З понад 23 тисяч прогнозів у 2018 році менше ніж 0,5% відповідали зареєстрованим інцидентам. Найнижчий показник був у категорії крадіжок із проникненням – лише 0,1%.
Поліцейські самі визнавали, що майже не користувалися цим інструментом. Деякі керівники навіть ставили під сумнів доцільність витрат на програмне забезпечення – понад 35 тисяч доларів за два роки.
Попри обіцянки технологій, ефективність таких систем залишалася сумнівною. Дослідники та правозахисники попереджають: хибні передбачення не тільки марнують ресурси, а й можуть поглиблювати упередженість у поліцейських практиках – особливо щодо расових і соціально вразливих груп.
Контроверсійна перспектива: як реагують правозахисники
На фоні цих тенденцій багато правозахисників занепокоєні тим, як подібні моделі можуть відтворювати або навіть підсилювати наявну структурну нерівність. Алгоритми, які ґрунтуються на історичних даних поліції та соціальних служб, неминуче містять у собі ті самі викривлення та упередження.
Як вказує Софія Лайол:
Цей алгоритм, який використовує дані від поліції, що має історію інституційного расизму, лише посилюватиме упередженість, яка вже закладена в систему. Це – кодований упереджений підхід до расових та малозабезпечених громад.
Правозахисники з організації Amnesty International також критикують британську технологію з передбачення правопорушень. "Чи можна передбачити майбутнє? У британській поліції вважають, що так. І роблять це, профілюючи цілі спільноти – переважно за расовими та соціальними ознаками", – мовиться в заяві організації.
Сьогодні близько трьох чвертей поліцейських управлінь у Великій Британії використовують технології, які мають допомогти передбачити злочинність. Це відбувається на тлі глибокої недовіри до інституцій, які самі визнають, що мають проблеми з інституційним расизмом. І коли до цього додають ще й алгоритми – маємо справу вже з автоматизованими формами дискримінації.
Ідея "передбачуваної поліції" передбачає, що система аналізує дані й на їх основі визначає, хто може вчинити злочин у майбутньому. Проблема в тому, що алгоритми навчаються на даних, які вже містять упередженість: вони закріплюють і відтворюють расову та соціальну нерівність.
У підсумку – цілі райони та громади сприймаються як потенційна загроза просто тому, що вони бідні або "не ті".
У лютому 2025 року Amnesty International UK оприлюднила звіт Automated Racism, в якому йдеться про те, що практика автоматизованого передбачення злочинності суперечить внутрішньому і міжнародному законодавству про права людини.
Мовиться про порушення таких прав:
- Право на недискримінацію. Алгоритми націлюються на людей із расових меншин та осіб із малозабезпечених громад – прямо або опосередковано. Це фактично закріплює расове профілювання на інституційному рівні.
- Право на справедливий суд і презумпцію невинуватості. Людей позначають як потенційних злочинців до того, як вони щось скоїли. Це ставить під загрозу презумпцію невинуватості та принцип справедливого судового розгляду.
- Право на приватність. Мова йде про масове, недиференційоване стеження. Подібне втручання не може вважатися пропорційним або виправданим.
- Свобода асоціацій та мирних зібрань. Коли райони, у яких ти живеш або проводиш час, під наглядом, це створює ефект стримування. Люди просто уникають цих місць, побоюючись зайвої уваги з боку поліції.
Ці інструменти не роблять суспільство безпечнішим. Вони просто розширюють поле для дискримінації, поширюючи сприйняття цілих спільнот як загрози. Це лише посилює недовіру до поліції, роблячи правозахисну ситуацію ще крихкішою. І хоча такі системи часто позиціонують як нейтральні технологічні рішення, по суті вони є продовженням упереджених практик, просто у цифровій формі.