Від мережі обміну знаннями до фабрики обману. Як штучний інтелект псує інтернет і чи реально його зупинити
Інтернет постійно трансформується та зазнає змін. Створений як мережа для воєнних цілей, із часом він перетворився на величезне сховище даних, джерело знань та інструмент ведення бізнесу. Проте останні зміни глобальної мережі, які ми спостерігаємо після появи інструментів генеративного ШІ, поступово знищують інтернет як мережу для обміну знаннями.
Причина цих змін полягає в тому, що дедалі більше контенту в мережі — статті, картинки, відео, дописи в соцмережах — створює не людина, а інструменти штучного інтелекту. З його допомогою пишуть тексти та формулюють коментарі, генерують зображення й створюють відео. ШІ вельми вправно імітує й іншу активність, характерну для живих користувачів інтернету.
Саме тому у 2025 році деякі аналітики пригадали давню «теорію мертвого інтернету». Вона описує явище зміни інтернету, коли він поступово заповнюється штучно створеним контентом, маніпуляційними наративами та фейковою активністю. Натомість прояви справжньої людської активності в онлайні витісняються. Як наслідок — людська довіра до того, що ми бачимо в онлайні, буквально тане на очах.
Чи дійсно інтернет мертвий
Тенденція перетворення інтернету на мережу зі штучно згенерованого контенту стала особливо помітною з появою та зростанням популярності генеративного штучного інтернету. Попри те, що UGC-платформи шукають способи ідентифікації та додавання поміток до ШІ-контенту, ШІ-інструменти все активніше використовуються у контентотворенні в різних варіаціях — від допомоги у покращенні власних матеріалів до використання винятково ШІ для генерації контенту. На ринку вже існують курси, де професійно вчать створювати синтетичний контент.
За деякими оцінками, виникла ця проблема не зараз, у 2023—2025 роках, а набагато раніше. Одні експерти пов’язують це явище з першимидипфейками, інші — з ботофермами, однією знайвідоміших серед яких є російська фабрика тролів і Cambridge Analytica.
Попри те, що розмови про «мертвий інтернет» тривають уже давно, нинішня хвиля цих обговорень стартувала з публікації на форумі Macintosh Cafe у 2021 році. Згодом до анонімних авторів повідомлень на нішевих форумах долучилися журналісти — автори майже програмної статті на The Atlantic наводять приклади ботів у тодішньому Twitter (тепер Х), які збирали велику кількість соціальних реакцій від таких самих ботів. Хоча соціальні мережі навчилися краще ідентифікувати ботів, ситуація насправді щороку погіршується і синтетичний контент все сильніше проявляється та стає видимим на різноманітних сайтах.
Особливо сильно ця тенденція проявилася після появи ШІ-інструментів, здатних генерувати тексти, зображення та відео. Проте на додачу до генерації контенту боти здатні імітувати справжню активність — клікати, додавати «вподобайки», коментувати, поширювати, маніпулюючи алгоритмами соцмереж YouTube чи Instagram. Цей синтетичний трафік створює ілюзію популярності та просуває потрібні теми, а часом навіть використовується для маніпуляції громадською думкою і задля поширення різноманітних фейків чи суперечливих дописів, здатних розпалювати конфлікти та підсилювати екстремістські погляди.
Поширення ШІ-контенту: коли машини перемагають людей
Головна проблема зі штучним інтелектом — це його нелюдський масштаб. Людина може написати одну статтю за день, зробити декілька фото, змонтувати одне-два відео. ШІ робить те саме за секунди — і без перерв на сон, відпочинок чи вимог зарплати. Єдине обмеження — потужність серверів, що обробляють юзерські запити.
Уже не перший рік різні аналітичні компанії намагаються підрахувати, яка частка контенту в мережі створюється людьми, а яка ботами. Згідно з дослідженням Graphite, про яке розповідає Notebookcheck, із 2020 по 2025 рік понад 50% текстового контенту було створено за допомогою інструментів штучного інтелекту. Правда, в цій інформації є певні обмеження — автори звіту аналізували лише англомовні сторінки, тому ці показники варто сприймати з певним скепсисом, проте очевидність масового використання ШІ-інструментів користувачами соцмереж не викликає сумнівів у тих, хто переглядає час від часу їхній контент.
Звіт іншої компанії Imperva Bad Bot Report за 2024 рік пропонує дуже схожу оцінку: майже 50% інтернет-трафіку генерується не людьми, а ботами. При цьому зловмисні боти формують близько третини всього вебтрафіку. Особливо тривожно те, що боти стають дедалі досконалішими — вони навчилися імітувати людську поведінку настільки вправно, що їх виявлення та блокування перетворюється на серйозний виклик. Результат передбачуваний: контенту стає все більше, і ШІ відіграє в цьому помітну роль.
З часом це матиме додаткові негативні наслідки для всієї екосистеми доступного онлайн-контенту, адже унікальний вміст зможе буквально потонути в морі однотипного ШІ-контенту через зменшення його видимості. Справа в тому, що алгоритми та ШІ-чатботи намагаються відтворювати те, на чому їх навчили, а не створювати щось принципово нове. Коли такі тексти чи відео продукуються у величезних масштабах й стають популярним, унікальні людські голоси буквально тонуть у морі ШІ-вмісту.
Проте найбільша небезпека полягає в іншому. Сучасний ШІ уміє настільки досконало копіювати людський стиль, що часом навіть експерти не завжди можуть розпізнати підробку. ШІ-чатботи можуть відтворити мовні нюанси й стилістичні особливості певного автора. Тож такі тексти чи малюнки, згенеровані ШІ-чатботами, не лише виглядають автентичними, але з часом перетворюються на ідеальний інструмент для маніпуляцій.
Чат-боти як зброя дезінформації
Саме перетворення ШІ-чатботів для цілеспрямованого поширення теорій змови та дезінформації є однією з головних небезпек цього інструменту. Існують спеціальні системи, які навчені для спілкування таким чином, аби переконувати людей у хибних ідеях і конспірологічних теоріях. Наприклад, уже існує бот, створений і навчений винятково для того, щоб переконувати батьків не вакцинувати дітей.
Такі боти працюють у соціальних мережах, на форумах, у коментарях. Вони вступають у розмови, відповідають на запитання, підкріплюють оманливі наративи псевдологічними аргументами. Їхня мета полягає не лише у простому поширенні фейків і збільшенні видимості такого контенту, але й у переконанні людей та «наштовхуванні» їх на потрібні розробникам ШІ-чатботів «правильні» висновки.
Небезпека цього підходу в тому, що він поєднує дві потужні технології: генерацію переконливого контенту й імітацію живого спілкування. Користувач думає, що дискутує з реальною людиною, яка поділяє його сумніви чи ставить цікаві запитання. Натомість це алгоритм, запрограмований підвести його до певних висновків. Боротися з таким використанням ШІ стає все важче, адже традиційні методи фактчекінгу в цих випадках не здатні виявити маніпуляції.
AI Slop: коли штучний інтелект створює інформаційне сміття
Серед усіх проблем, пов’язаних із масовим поширенням ШІ-контенту, існує окремий феномен, який уже отримав назву AI Slop. Це низькоякісний, безглуздий контент, створений ШІ-інструментами без особливої мети. По великому рахунку, це просто цифрове сміття. Статті без змісту, безглузді рецепти з нелогічними інструкціями, автоматично згенеровані «корисні поради», ШІ-зображення та відео без особливого змісту — як, наприклад, Ісус-креветка.
Річ у тім, що такий контент створювати порівняно дешево, а монетизувати його через рекламу доволі вигідно — наприклад, його можна використовувати в рекламі. На жаль, вдалі приклади такого контенту стають вірусними та додають роботу фактчекерам — як відео з кроликами, які начебто стрибають на батуті. До речі, продавці насіння скаржаться, що шахраї продають насіння несправжніх квітів, зображення яких згенероване ШІ.
Засмічення інтернету AI Slop-контентом буквально його руйнує. Користувачі витрачають дедалі більше часу, щоб знайти справді потрібну й корисну інформацію, пошукові системи й соцмережі намагаються блокувати це ШІ-сміття. Проте AI Slop створюється швидше, ніж його встигають фільтрувати.
Нова соцмережа та Sora 2 від OpenAI: коли ШІ стає основою спілкування
Поки інтернет наповнюється штучним контентом, OpenAIготується запустити власну соціальну мережу — конкурента X і Facebook. Особливість цієї платформи полягає в тому, що ШІ інтегрований у неї на всіх рівнях: від створення контенту до його модерації та взаємодії з користувачами. Наразі компанія особливо не розповідає деталі майбутнього проєкту, проте заяви про інтеграцію ШІ у всі можливі їхні прояви може свідчити про те, що майбутня соцмережа являтиме собою майданчик для поширення ШІ-контенту.
Платформа використовуватиме передові моделі ШІ для генерації та покращення текстів, зображень, відео в реальному часі, адаптуючись до даних користувачів — так OpenAI описує свій майбутній продукт.
На фоні цих планів цікавими є інші кроки OpenAI з удосконалення своєї моделі генерації відео Sora 2, остання версія якої стала доступна декілька тижнів тому. Ця система може створити відео з простих текстових підказок і таким чином продукувати вельми реалістичні ролики. Нову версію Sora 2 можна сприймати як технологічне рішення для майбутньої соцмережі від OpenAI. Але водночас Sora 2 є технологічною основою для AI Slop і буквально інструментом засмічення інтернету.
https://www.youtube.com/watch?v=1PaoWKvcJP0
Найпопулярніший формат контенту — відео — тепер не вимагає знань основ експозиції, відеомонтажу чи кольорокорекції. Завдяки інтуїтивним мобільним додаткам і ШІ-інструментам тепер його можна масово виробляти автоматично, причому настільки якісно, що відрізнити підробку від реальності стає майже неможливо. Це відкриває шлях для дипфейків, маніпулятивних роликів і дезінформаційних кампаній у масштабах, яких ми ще не бачили. Експерти, які протестували цей додаток, розповіли, що він буквально викликає залежність і бажання все більше часу проводити в ньому, створюючи контент.
Неминуче переповнення: коли ШІ витісняє людей
ШІ-чатботи стають щоразу потужнішими, вони генерують тексти, які важко відрізнити від людських, Sora 2 створює реалістичні відео з простих текстових запитів, множаться мережі ботів. Дослідники лише фіксують логічний наслідок цих процесів — як контент, створений людьми, чисельно програє штучному. Це вже не гіпотетичний сценарій — це реальність, яка розгортається прямо зараз.
Окрім того, ШІ є не лише інструментом створення контенту, але й однією з функцій відбору цього контенту для кінцевих користувачів. Ця невидима рука формує громадську думку, впливає на популярний контент, та, де-факто, визначає культурні тренди.
Боротися з цими змінами в мережі ще можна, але діяти варто не лише на технологічному рівні, але й у правовому полі та, звісно, на рівні кожного конкретного користувача інтернету.
Від ШІ-компаній, соцмереж і пошукових сервісів очікуються ефективні технології виявлення ботів і ШІ-контенту — від «цифрових водяних знаків» для ШІ-генерованого вмісту, які неможливо видалити, до створення систем верифікації людського авторства.
Платформи мають узяти на себе відповідальність і запровадити маркування штучного контенту з розкриттям його походження та методів створення. А ще — надати користувачам інструменти для фільтрування контенту за його джерелом. Деякі вже пропонують можливість відмовитися від AI Slop у своїх стрічках.
Окрім того, кожен конкретний користувач мусить навчитися розрізняти ШІ-контент, аби не захоплюватися Папою в пуховику чи не дивитися на стрибучих кроликів.
Очевидно, що й від законотворців і правників очікуються юридичні норми боротьби із AI Slop і засміченням інтернету, але, схоже, поки законивідстають від надшвидкого розвитку ШІ.
Сценарій «мертвого інтернету» — простору, де людська присутність поступово зникає, а алгоритми та боти домінують у кожному аспекті комунікації — не є неминучим. Але, щоб його уникнути, треба вже шукати компроміси між інновацією та безпекою, між свободою вираження та захистом від маніпуляцій.
Інакше користувачі ризикують втратити контроль над тим, що формує їхнє онлайн-життя — над наративами, фактами та взаємодіями, які визначають сприйняття реальності. А разом із цим і над цифровим простором загалом.
Питання не в тому, чи змінить ШІ інтернет — він уже це робить. Питання в тому, чи зможемо ми направити цю зміну в напрямку, який зберігає людську автономію у цифровому світі.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.