/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F133%2Fa100858505172d1979e4bb50f853a869.jpg)
Алгоритм ненависті. Як соціальні мережі призводять до радикалізації суспільства
У травні французький міністр цифрового розвитку пропонувала заборонити в ЄС соцмережі для дітей до 15 років, щоб позбавити їх шкідливого впливу алгоритмів. Дослідження показують, що за останнє десятиліття алгоритмічні рекомендаційні системи стали майже одноосібно вирішувати, який контент користувач бачить, а який ні.
Вгадуючи його захоплення, алгоритми ненавмисно віддають перевагу емоційно зарядженому, неоднозначному, сенсаційному та радикальному контенту – як правило, саме такому, що постять ультраправі спільноти, політики й рухи. Це безпосередньо впливає на сучасну політику. Радикальні пости викликають більше кліків і реакцій і краще враховуються алгоритмами. Але в результаті користувачі опиняються в вельми специфічних інформаційних бульбашках. Причому, кажуть дослідники, це не помилка, а структурна особливість платформ, створених для того, щоб користувачі прокручували пости, ділилися ними і ховалися в ідеологічні ехо-камери.
Джастін Браун-Ремзі, аспірант-історик Браунського університету, ще старшокласником на тлі розлучення батьків 2015 року почав провести дедалі більше часу онлайн. Тоді він натрапив на Джордана Пітерсона – доктора психологічних наук, правого мислителя і блогера. З екрана комп’ютера Пітерсон запропонував Джастіну те, чого йому якраз не вистачало: співчуття, розуміння і прості, здавалося б, поради щодо поліпшення життя. А разом із цим – міркування про “велич західної цивілізації”, шкоду “культури скасування” тощо.
Незабаром алгоритми YouTube стали завалювати Джастіна рекомендаціями інших правих блогерів і політиків. Через деякий час, пише Джастін, весь контент, який він споживав, складався з правих і ультраправих блогерів та авторів. У підсумку він став щодня брати участь у суперечках під відео про рух #MeToo, намагаючись спростувати “ліваків” і активно переймаючи у Пітерсона прийоми полеміки.
Незабаром Джастін посварився з друзями на ґрунті суперечок про расизм, права трансгендерних людей та інше, ще більше ізолюючись у своїй онлайн-ідеології. Вибратися з цієї бульбашки, відновити соціальні зв’язки і перестати радикалізуватися йому допомогла освіта – але так щастить не всім.
Кролячі нори соцмереж
Джастін – приклад людини, яка потрапила на так званий “радикалізуючий конвеєр”. У різних дослідженнях і публікаціях у цього феномена багато назв: наприклад, alt-right pipeline (“трубопровід до альтернативних правих”) або rabbit hole (“кроляча нора”). Суть цих конвеєрів у тому, що на вході людина з іще не усталеними поглядами потрапляє у вир автоматично відібраного контенту і в підсумку значно змінює свій світогляд. Особливо гостро це проявлялося на початку пандемії ковіду – так, за перші місяці кількість передплатників груп антиваксерів зросла на 19%, а самі вони незабаром еволюціонували в повноцінні ультраправі групи теорій змови.
Чому алгоритми діють саме так і просувають вкрай правий контент? Той самий Джастін міг отримувати рекомендації відео інших психологів і коучів для підлітків – адже саме це від самого початку привернуло його до Пітерсона, – але натомість алгоритми поступово рекомендували йому дедалі радикальніший і радикальніший крайній правий політичний контент. Системи рекомендацій створені так, щоб утримувати нашу увагу і змушувати нас проводити якомога більше часу онлайн. Тому на практиці вони просувають найбільш емоційно провокаційні або суперечливі матеріали – просто тому, що це найефективніше. Найчастіше таким контентом виявляються якраз політизовані та радикальні матеріали.
Звісно, різні онлайн-платформи демонструють різні патерни, але в підсумку, навмисно чи ні, сприяють зростанню саме правого контенту.
Внутрішнє розслідування Twitter, проведене ще до купівлі платформи Ілоном Маском, показувало, що твіти правих політиків і видань посилювалися в алгоритмічних домашніх стрічках більше, ніж твіти лівих джерел, – у шести із семи досліджених країн, включно зі США, Великою Британією та Канадою. У Канаді, наприклад, перевага на користь правого контенту була чотириразовою.
Дослідження Global Witness, проведене в лютому 2025 року, показало, що домашні стрічки (“Для тебе”/For you) у TikTok і Twitter (Х) у Німеччині непропорційно рекомендували ультраправий контент напередодні федеральних виборів. У TikTok, наприклад, 78% усіх політичних рекомендацій стосувалися контенту, пов’язаного з AfD, – тоді як реальна підтримка партії не перевищувала 20%. У Twitter “Альтернативі” було присвячено 63% усього політичного контенту, що просувається. Упередження на рівні платформ очевидне. І воно, звісно, може впливати на громадську думку: регулярне зіткнення з “радикальним контентом” справді призводить до підтримки таких самих радикальних ідей.
Ще одне дослідження показує: алгоритми домашніх стрічок у TikTok не просто виступають як пасивний інструмент, що неупереджено відображає смаки користувача. Навпаки, автори стверджують, що функціонал “конвеєра” вбудований у систему на рівні дизайну. Швидке поширення і вірусність радикального та ультраправого контенту на платформі, вважають вони, не випадковість і навіть не наслідок уподобань користувачів, а цілком очікуваний результат роботи алгоритмів.
У роботі “Алгоритмічний екстремізм?” професор міжнародної безпеки на факультеті політики, філософії та релігії (PPR) Ланкастерського університету Джо Бертон стверджує, що сучасні алгоритми посідають дедалі важливіше місце в політиці. Сьогодні вони самі активно сприяють поляризації, радикалізму та політичному насильству. Бертон вважає, що проблема не тільки в соціальних мережах, а й у філософії використання ШІ та алгоритмів у принципі.
Алгоритми цілком свідомо створюються для експлуатації добре вивчених слабкостей людської психіки. Соціологи і психологи давно запевняють: алгоритми соціальних мереж грають на когнітивних спотвореннях – особливо “упередженості підтвердження”. Тобто на природному прагненні людини шукати і краще сприймати інформацію, що підтримує її вже сформовані переконання.
Тому, щоб підтримувати інтерес і залученість, алгоритми постійно пропонують користувачам контент, що відповідає їхнім позиціям. Користувачі, які цікавляться вкрай правими політиками, отримуватимуть у рекомендаціях такий самий вкрай правий контент, противники вакцин – антиваксерські матеріали тощо. Це часто називають “бульбашкою фільтрів” – штучно створеним інформаційним простором, де всі один з одним згодні, а суперечливу інформацію ігнорують.
Згідно з популярною в психології “моделлю групової поляризації”, такі спільноти згодних одна з одною в усьому людей у підсумку не просто підтверджують і підтримують свої переконання, а й зміцнюють їх, роблять їх ще радикальнішими. Разом із “радикалізуючими конвеєрами” ефект виходить зловісний: алгоритми дедалі сильніше і надійніше зміцнюють користувачів в екстремістських ідеологіях.
Невидимі алгоритми і реальне насильство
Онлайн-екстремізм може перейти в реальність. Масова стрілянина в США в Буффало у 2022 році – один із прикладів. У звіті про розслідування генерального прокурора Нью-Йорка затверджується, що алгоритмічні рекомендації платформ і затримки з видаленням контенту сприяли процесу радикалізації стрілка – і зрештою насильству. У Великій Британії дослідження Bellingcat, присвячене мережам впливу ультраправих, показує, як YouTube і Telegram слугують “вербувальними майданчиками”, скеровуючи новачків на екстремістські форуми та в ізольовані радикальні спільноти.
Затримання стрілка після масової стрілянини в Буффало у 2022 році
Популярний міні-серіал Netflix “Отроцтво” присвячений долі підлітка, який потрапив у схожу інформаційну та культурну бульбашку. Дослідження детально описують механізми, що ведуть від звичайного контенту до мізогінії та екстремізму. А спецслужби на кшталт MI5 змушені вести спостереження за підлітками: до 13% людей у групі ризику тероризму у Великій Британії молодше 18 років.
Сегмент інтернету, пов’язаний із цим, отримав назву “меносфера”. Це умовна вільна мережа спільнот, яка об’єднує людей, зацікавлених у захисті прав чоловіків, інцелів, пікап-майстрів – таких як брати Тейт або Арсен Маркарян. Як і інші конвеєри, “меносфера” використовує абсолютно нешкідливі “точки входу” – наприклад, ігрові стріми.
Кадр із серіалу “Отроцтво”
Дослідження Портсмутського університету показує, що найчастіше стереотипні та спрощені уявлення про гендер (і людей загалом) в іграх створюють зручне підґрунтя для деяких інфлюенсерів, яке ті намагаються використовувати для захисту й просування явних антифеміністських і жінконенависницьких ідеологій. Ті самі алгоритми, як і у випадку з психологією Пітерсона, замість рекомендацій звичайного геймерського контенту можуть підштовхувати лише побічно пов’язані з хобі користувача матеріали “меносфери”.
При цьому, хоча чільні особи в “меносфері” можуть стверджувати, що зацікавлені лише в благополуччі та здоров’ї чоловіків, на ділі виявляється навпаки. Так, стаття в журналі Child and Adolescent Mental Health попереджає, що молоді люди, які знайомляться з подібним контентом, наражаються на підвищений ризик депресії, тривоги і соціальної ізоляції, оскільки наратив “чоловічої віктимності (жертовності)”, популярний в онлайн-жінноненависників, поглиблює їхні почуття відчуженості й образи.
Журналісти The Guardian провели експеримент: вони створили порожні акаунти у Facebook та Instagram, вказавши тільки стать і вік (чоловік, 24 роки) – і протягом кількох тижнів стрічки обох платформ виявилися заполоненими сексистськими мемами, “традиційними католицькими” постами і гіперсексуальними зображеннями жінок.
Алгоритми можуть сприяти і політичному насильству. Розслідування The Washington Post на основі внутрішньої документації Facebook (так званих Facebook Papers) показало, як алгоритми компанії фактично прискорили підготовку та мобілізацію учасників штурму Капітолія 6 січня 2021 року. Ще 2019 року дослідники Facebook виявили, що в експериментальному обліковому записі “консервативної матері з Північної Кароліни” вже на п’ятий день у стрічці з’явився конспірологічний контент QAnon, демонструючи прискорену радикалізацію через рекомендаційні алгоритми.
Також Facebook довго не чіпав групи Stop the Steal (“Зупиніть крадіжку голосів” – гасло прихильників Трампа під час виборів 2020 року), які стали основним організуючим центром протестів. Коли в грудні 2020 року компанія все ж заблокувала основну групу, десятки аналогічних пабліків миттєво пережили вибуховий ріст – через автоматичні “суперзапрошення” по 500 осіб кожен, що знову наповнило стрічки агресивними закликами до насильства.
Виверти Трампа
Тим часом бенефіціари алгоритмічних бульбашок теж ними незадоволені. Під гаслом “воук ШІ” друга адміністрація Трампа перетворила давні побоювання з приводу шкідливих алгоритмічних бульбашок на чергове поле культурної війни. На початку 2025 року Конгрес зажадав внутрішні документи від Amazon, Google, Meta, Microsoft, OpenAI та інших компаній на предмет аналізу упередженості алгоритмів, які нібито приділяють занадто велику увагу інклюзивності та лівому порядку денному.
Віцепрезидент Джей Ді Венс на Паризькому саміті, присвяченому ШІ, публічно присягався, що його адміністрація буде “стежити за тим, щоб системи ШІ, розроблені в Америці, були вільні від ідеологічних упереджень і ніколи не обмежували право наших громадян на свободу слова”. Фактично це було його відповіддю на спроби інших країн і корпорацій якраз зробити ШІ неупередженим – але це означало б позбавлення від правого крену. Що, очевидно, суперечить інтересам Венса. Гарантії відповідальних алгоритмів і ШІ для Трампа і Венса – це загроза, яку вони намагаються виставити як небезпеку для інновацій і свободи.
Це перегукується зі скаргами Ілона Маска до купівлі ним Twitter: нібито соціальна мережа ущемляла консерваторів – всупереч усім доказам зворотного. Зрозуміло, після купівлі ним платформи упередженість на користь правих і ультраправих лише збільшилася: сьогодні відверто неонацистський контент просувається платформою і прекрасно себе почуває.
У 2018 році Трамп звинуватив пошукову систему Google у тому, що та “підлаштована” проти нього, і попередив соціальні платформи, що це дуже серйозна ситуація, яка має бути розглянута його адміністрацією. В основі цієї стратегії лежить поняття, яке журнал Psychology Today назвав “алгоритмом Трампа”: будь-які позитивні дані, що підтверджують його успіх, сприймаються як істина, а будь-яка негативна інформація відкидається як fake news.
Чому платформи не змінюють алгоритми? Залученість продає рекламу, а обурення і радикалізація, своєю чергою, збільшують залученість. Алгоритми, побудовані на часі перебування на сайті та показниках кліків, сприяють підбурювальному контенту – чим гостріше, тим краще. До того ж у того ж Ілона Маска є політичні стимули схиляти платформи на користь ідеологій, яким він віддає перевагу. Оскільки платформи монетизують екстремізм, стимули для реформ зникають: навіщо вкладати гроші в суворішу модерацію, якщо екстремістський контент приносить прибуток?
Що далі?
Закон про цифрові послуги (Digital Services Act) в ЄС вимагає від платформ розкривати, як працюють їхні алгоритми, і проводити незалежні аудити. Він набрав повної чинності в лютому 2024 року. Критики вважають, що він все ще недостатньо прозорий, прихильники жорсткішого регулювання пропонують використовувати “етикетки” для алгоритмів, що розкривають кінцевим користувачам їхні ключові параметри. Хтось же, навпаки, наполягає, що закон обмежує свободу платформ і користувачів.
Однак, як підкреслюється в доповіді генерального прокурора США, правові реформи не встигають за системами штучного інтелекту, що швидко розвиваються.
Щоб повернути курс назад, необхідна колективна воля. Платформи мають змінити стимули, дослідники мають розробити надійні системи аудиту, а політики – гнучкі правила, які змусять технологічні компанії нести відповідальність. Але найголовніше – користувачам необхідно підвищити рівень грамотності та усвідомити, як алгоритми формують їхній інформаційний раціон. Розуміння прихованого коду цифрових каналів – перший важливий крок.
Автор: Андрій Смоляков
Джерело: The Insider
Tweet