ШІ, що вирішує за нас. Як соцмережі змінюються під впливом штучного інтелекту
Штучний інтелект фундаментально змінює спосіб управління контентом і саму суть найбільших соціальних мереж. Ці сервіси все активніше запроваджують ШІ у своїй роботі, і це не лише автоматизована модерація та перевірка фактів, але й відбір контенту, що базується на роботі ШІ-алгоритмів.
Нещодавно Meta запустила власний ШІ-інструмент Meta AI, який мав би допомогти у взаємодії з соцмережею. Проте його використання як «класичного» ШІ-чатбота призвело до нових етичних дилем і порушень приватності — публікації листувань із цим сервісом, чого більшість людей не очікувала. Материнська компанія Facebook пішла далі й стала створювати ШІ-друзів — чатботів, які ініціюють спілкування та потрібні для того, аби боротися з «епідемією самотності» серед користувачів соцмереж.
Виглядає так, що використання штучного інтелекту в соцмережах змінює їхню початкову ідею як платформ, що об’єднували цікавих людей і допомагали у їхньому спілкуванні між собою. Тепер користувачам «нового ШІ-покоління» соцмереж пропонується спілкуватися з алгоритмами й ботами. Тож ШІ в соцмережах у запропонованому техногігантами вигляді — це не просто технологічна трансформація та використання інновацій. Це зміна самої природи онлайн-комунікації та, в певному розумінні, визнання того, що соціальні мережі вже не виконують свою першочергову задачу.
ШІ та модерація контенту
Користувачі соціальних мереж генерують величезні потоки даних, із якими доводиться працювати модераторам, аби видаляти суперечливий контент — мову ворожнечі, сцени насильства, цькування й інші порушення правил. Соцмережі завжди мали проблеми з модерацією та їх часто звинувачували в тому, що вони не встигають реагувати на одні дописи, які варто було б видалити, та водночас бувають занадто жорстокі до інших.
Після приходу до влади Трампа на тлі критики президента в бік великих платформ і їхніх механізмів модерації, яку республіканці неодноразово називали «цензурою», Metaпослабила свої правила щодо контенту та стала більше дозволяти користувачам. Цікаво, що це рішення призвело до зростання насильницького контенту та прикладів домагань і цькування.
Тепер же платформа пішла ще далі: в травні стало відомо, що 90% всіх оцінок ризиків буде робити ШІ-інструмент.
На практиці це означає, що критичні оновлення алгоритмів Meta, нові функції безпеки та зміни в порядку поширення контенту на платформах компанії будуть в основному затверджуватися системою на базі штучного інтелекту, а не піддаватися ретельній перевірці з боку співробітників, яким доручено обговорювати, чи можуть зміни в роботі платформи мати непередбачені наслідки.
Наразі складно сказати, чи зможе штучний інтелект ідентифікувати нові випадки насильницького або образливого контенту і чи не спричинить автоматизована модерація зростання хибнопозитивних результатів. Не секрет, що штучний інтелект не може зрозуміти нюанси людської мови, культурний контекст або інші фактори, які варто знати, аби оцінювати дописи. Водночас і люди-модератори не завжди мають час чи кваліфікацію для оцінки контенту.
ШІ-фактчекінг
Ще одне революційне використання штучного інтелекту в соціальних мережах полягає у відмові від краудсорсингової перевірки фактів. Twitter (тепер X) уже давно запровадив «Нотатки спільноти» — систему, за якою волонтери додають уточнювальні примітки до оманливих публікацій. Ініціатива в якийсь момент була доволі популярною, проте з часом вона зіткнулася зі зниженням інтересу до неї користувачів. Кількість нотаток користувача впала з піка в 120 тисяч у січні до менш ніж 60 тисяч у травні.
Щоб розв’язати проблему масштабу та повільного часу реагування, X та інші платформи тепер дозволяють агентам штучного інтелекту створювати нотатки для фактчекінгу. Боти на базі штучного інтелекту генерують «Нотатки спільноти» і додають їх до вірусних дописів, а потім ці нотатки перевіряють люди перед публікацією. Керівники платформи стверджують, що штучний інтелект може створювати більше контексту, робити це швидше та в безпрецедентних масштабах, потенційно борючись із потоком дезінформації набагато ефективніше, ніж це робили групи волонтерів. Крім того, що це відбувається набагато швидше — фактчекінг можливий буквально відразу після публікації, це дешевше, адже ШІ-алгоритми легко масштабуються до перевірки мільйонів дописів, із мінімальними зусиллями для цього.
Проте в цьому процесі існують певні ризики. Нотатки, створені штучним інтелектом, усе ще потребують перевірки людиною, щоб уникнути помилок. Окрім того, штучний інтелект так само галюцинує та може створювати неправдивий контент. Тож надмірна залежність від автоматизованих ШІ-нотаток може призвести до одноманітних або навіть маніпулятивних пояснень, які можуть ненавмисно посилити поширення теорій змови або дезінформації.
Занепокоєння також викликає занепад професійних партнерств у сфері перевірки фактів. Нотатки спільноти — створені штучним інтелектом чи ні — значною мірою залежать від загальнодоступних, високоякісних досліджень і журналістських матеріалів. Якщо платформи розірвуть зв’язки з професійними експертами, системам штучного інтелекту може бракувати глибини, необхідної для боротьби зі складною дезінформацією.
Про потенційні проблеми використання ШІ для створення нотаток спільноти говорив колишній міністр цифрових технологій Великобританії Деміан Коллінз — він буквально сказав, що компанія «віддає редагування публікацій ботам» і додав, що система відкрита для зловживань, і що агенти штучного інтелекту, які працюють над нотатками спільноти, можуть спричинити «промислове маніпулювання тим, що люди бачать і чому вирішують довіряти» на платформі.
Meta AI як катастрофа конфіденційності
Meta створила власний ШІ-чатбот Meta AI, який працює на моделі Llama 4. Додаток інтегрований із Facebook, Instagram, WhatsApp, а його глобальна мета — покращення використання соцмереж. Проте Meta AI можна використовувати для спілкування в чаті — так само як і ChatGPT.
Поява цього додатку, точніше, трансляція його діалогів у публічну стрічку користувачів соцмереж Meta перетворила Meta AI буквально на вбивцю приватності та знищила межі між приватними запитами та публічним контентом. Уявіть собі, що історія вашого браузера стала публічною і її може бачити будь-хто. Десь так сталося з Meta AI — багато людей, не розібравшись у принципах роботи додатка, стали публікувати свої діалоги з чат-ботом. Після запиту до ШІ користувач отримав можливість натиснути кнопку «Поділитися», яка потім перенаправить юзера на екран із попереднім переглядом публікації, а повторне натискання опублікує цей діалог. Імовірно, деякі користувачі не зрозуміли ні призначення чатбота, ні те, як працює кнопка «Поділитися».
Користувачі вважали, що їхні розмови з Meta AI були приватними, але виявили, що величезна кількість чатів, аудіоповідомлень, зображень і навіть конфіденційної інформації за замовчуванням переміщувалися в публічну стрічку «Discover», доступну всім користувачам додатка. На загал стали доступні запитання про стосунки, зізнання в ухиленні від сплати податків, обговорення медичних діагнозів та інша приватна чутлива інформація.
Заплутаний інтерфейс спільного доступу, неоднозначні попередження та налаштування конфіденційності означали, що багато людей не знали, що розкривають таку інформацію, або не усвідомлювали, як легко їхні чати можна пов’язати з їхніми справжніми профілями.
Після хвилі негативної реакції в пресі та обурення користувачів, Meta додала повноекранні попередження: «Підказки, які ви публікуєте, є публічними та видимими для всіх. Ваші підказки можуть бути запропоновані Meta в інших додатках Meta. Уникайте поширення особистої або конфіденційної інформації».
Тепер користувачі повинні вручну вмикати поширення контенту. Проте фахівці стверджують, що ризик оприлюднення суперечливих даних зберігається і вони продовжують просочуватися у загальний доступ. На відміну від зашифрованих особистих повідомлень або чіткого розмежування між публікацією та діалогом в чаті з іншим користувачем, спілкування зі штучним інтелектом у соціальних мережах «ніколи не буває конфіденційним», попереджають експерти з питань конфіденційності.
В історії зі взаємодіями з Meta AI цікавою є ще одна особливість роботи цього чатбота. У липні цього року стало відомо, що компанія тестує можливість для ШІ-чатботів бути проактивними, тобто ініціювати діалоги з користувачами. В компанії не приховують, що це рішення спрямоване на підвищення залученості користувачів до соцмереж Meta і мусить робити все, аби підтримувати зацікавленість користувачів до її продуктів. Звісно, компанія створила обмеження щодо частоти такого спілкування — якщо юзер не реагуватиме на повідомлення чатбота, діалог буде припинено. Але сама ідея такого занадто ініціативного ШІ-чатбота, особливо в контексті втрати конфіденційності користувачів і загалом відволікань на різні сповіщення, які щодня бачать користувачі, викликає, скажімо так, занепокоєння. Це зараз Meta обмежує його одним повідомленням на два тижні. А що буде за рік?
ШІ-контент, ШІ-інфлюенсери, використання даних
Штучний інтелект вплинув і на інші функції соціальних мереж, і, мабуть, найбільш помітним проявом стало засилля ШІ-контенту, з яким добре знайомі українці — фейковізображення, частоманіпулятивного характеру. Попри спроби техногігантів створити автоматизованіінструменти ідентифікації такого контенту чи примусово додаватипозначки про те, що контент є продуктом ШІ, наразі не спостерігається зменшення кількості такого контенту в соцмережах. Хоча наглядова рада Meta нещодавно звернула увагу на проблеми з ідентифікацією штучно згенерованого контенту та підкреслила, що навіть вірусні, шкідливі публікації часто не видаляють або не містять помітки про використання ШІ.
Понад те, компанія Meta цього року експериментує з ШІ-контентом, а саме — з цифровими інфлюенсерами. Цей крок техногіганта можна вважати ще одним тектонічним зсувом — тепер не люди-користувачі, а боти створюють, діляться та взаємодіють у великих масштабах, іноді маскуючись під користувачів-людей. У США вже діють тисячі таких профілів, із планами на глобальне розгортання. Ці AI-профілі мають вигадані біографії, аватарки й можуть створювати контент і коментувати новини. Такий підхід підвищує залученість і наповнює стрічки контентом, але також ще більше підриває автентичність контенту в соцмережах і сприяєпоширенню дезінформації.
Додатковим предметом дискусій у 2025 році стало використання компанією Meta даних користувачів, зокрема, з ЄС для навчання її моделей штучного інтелекту. Торік компанія навітьвідклала створення свого ШІ-помічника в ЄС через загрози порушення GDPR. Проте зміна цих правил і рішення компанії все ж навчати її ШІ-моделі на публічних дописах користувачів з ЄС викликало занепокоєння у європейських регуляторів і керівних органів окремих європейських країн.
Більше штучні, менше соціальні
Штучний інтелект поступово стає центральною нервовою системою соціальних мереж. Якщо раніше алгоритми та ШІ використовувалися для таргетування реклами чи курування (відбору) контенту, то зараз ШІ не лише визначає, що ми бачимо у своїх стрічках. Він вирішує, чи можемо ми в принципі бачити певний контент, спонукає нас проводити більше часу в соцмережах, пропонуючи нам часто контент не лише штучно відібраний, але й штучно згенерований.
З одного боку, штучний інтелект може допомогти розвінчати теорії змови та зменшити доступ до дезінформації, але він так само легко може посилити «бульбашки фільтрів» або створити нові ризики.
Перші спроби об’єднати ШІ та соцмережі, головні онлайн-сервіси останніх років, виглядають недолуго. Цифровий простір, який мав бути про людей, стає все більш бездушним — перенасиченим штучним, прогнозованим і контрольованим. Існує ризик, що занадто активна ШІ-зація соцмереж стане початком їхньої поступової втрати популярності, принаймні, такої, якою вони могли похвалитися в останні роки. Виглядає так, що власники соцмереж занадто сильно захопилися ідеєю того, що може зробити ШІ в їхніх проєктах. Хоча насправді варто подумати про те, чи залишиться в соцмережах місце для звичайних користувачів.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.