/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Fe959a1f7f1ce0f2e3449598152b84c61.jpg)
Фейкові пісні, вигадані новини, книги і фільми: як ШІ-сміття заполоняє соцмережі та загрожує культурі
Різке зростання генеративного штучного інтелекту за останні два роки породило не лише нові інструменти, а й нові явища. Соцмережі забиті згенерованими нейромережами зображеннями: то гібридна істота з креветковим хвостом і ликом Ісуса, то маленька дівчинка з цуценям, яка нібито пережила повінь. Такі картинки іноді здаються фантастичними, іноді – правдоподібними, але об’єднує їх одне: низька якість і байдужість до фактичної точності.
В англомовній спільноті для цього навіть виник термін AI slop – помиї штучного інтелекту. Це не лише про картинки, сюди включають і відео, аудіо та текст, створені швидко і дешево завдяки нейромережам. Технології зробили це швидким, легким і дешевим. Автори slop-контенту працюють на економіку уваги: вони засмічують канали, щоб захопити погляди та рекламні долари, витісняючи якісний контент.
24 Канал поспілкувався з експертом у сфері штучного інтелекту Дмитром Софиною та розповідає детальніше про проблему ШІ-слопу.
Що таке ШІ-слоп?
Якщо у 2023‑му таке виробництво виглядало курйозом, то сьогодні воно перетворюється на проблему. Аналітики The Guardian цього літа проаналізували канали на YouTube, що найшвидше зростають, і виявили, що дев’ять із перших ста ґрунтуються винятково на ШІ‑смітті: від зомбі‑футболу до мильної опери про котів.
Подібний підхід проникає в музику: на стрімінгах з’являються цілі гурти, що насправді не існують: один із таких "колективів" під назвою The Velvet Sundown пропонує штучні пісні з вигаданою біографією. Існує також нібито українсько-литовський гурт Transportna, який також підозрюють у використанні ШІ, а його візуали точно створені генераторами зображень.
Скриншот із YouTube Transportna
Кількість ШІ‑контенту зростає щороку. Письменницькі майданчики, які платять за оповідання, вимушено закривають приймання творів. Зокрема, популярний журнал Clarkesworld перестав приймати нові тексти через шквал генеративних "шедеврів".
Навіть Wikipedia змушена боротися з потоками автозгенерованих статей, які розтягують ресурси волонтерської спільноти.
Слоп присутній і в Україні – від сфери реклами, медіа до навіть ТЦК. Наприклад, згенеровані ШІ зображення можна побачити у рекламі та ілюстраціях до медіа, які зібрав 24 Канал:
Цікавий випадок стався зі сторінкою Полтавського обласного ТЦК і СП. У соцмережі X публікували скриншот допису у Facebook цього ТЦК зі згенерованою казкою та ілюстраціями.
Скриншот допису Полтавського обласного ТЦК та СП з X
Згадки про цей допис ще є в Google, однак перейти за посиланням неможливо.
Відеосервіси майбутнього: від Sora до Vibes
Варто згадати й відверто комерційні проєкти зі створення ШІ-слопу. Влітку 2025 року OpenAI анонсувала другу версію свого інструмента Sora (відео на основі тексту) й паралельно опрацьовує окремий затосунок, який, за даними журналістів, нагадує TikTok.
Він пропонуватиме нескінченну стрічку коротких роликів, створених винятково штучним інтелектом. Користувачам заборонять завантажувати власні відео, але дозволять "надихати" алгоритм своїм зображенням і позначати друзів – фактично мова йде про легалізований генератор дипфейків на стероїдах. За даними Wired, тестери всередині компанії сприйняли ідею з ентузіазмом настільки великим, що менеджери жартували про можливу втрату продуктивності.
OpenAI не єдина. Meta наприкінці серпня представила додаток Vibes – стрічку коротких відео, створених її нейромережею, інтегровану у фірмовий помічник Meta AI. Запуск майже одноголосно висміяли – оглядачі назвали сервіс "чистим сміттям". Паралельно Google інтегрує свою модель Veo 3 у YouTube Shorts, а конкуренти поспіхом готують власні аналоги. Перегони в ШІ-слопі від технокомпаній призводять до лавиноподібного викиду контенту, але питання залишається: чи потрібен він користувачам?
Такі платформи стануть ідеальним середовищем для дезінформації та небажаних дипфейків. TikTok уже довелося змінити правила, заборонивши містити матеріали, які можуть завдати суттєвої шкоди, та окремо відзначивши ШІ‑генерований контент. Політика сервісу визнає, що навіть із позначками оброблені відео можуть залишатися небезпечними. Окрім цього, адвокати художників нагадують про постійні порушення авторського права, які вже призвели до високопрофільних судових позовів. Очевидно, що в епоху, коли кожен може натренувати нейромережу на чужих роботах, ризики для авторів та правовласників лише зростатимуть.
З аматорської стрічки – в офіс: феномен workslop
Паралельно зі споживчим контентом з’явився ще один небажаний побічний продукт – workslop. Це термін, який дослідники BetterUp Labs та Stanford Social Media Lab запропонували для позначення згенерованого ШІ робочого контенту, що маскується під якісний, але насправді не є таким.
На відміну від очевидних мемів, "робочі помиї" набагато підступніші, адже часто виглядають презентабельно: чисті таблиці, охайно відформатовані звіти чи промовисті резюме. Проте за фасадом ховається брак глибини та точності.
Дмитро Софина
Член Комітету з розвитку ШІ Мінцифри, гендиректор та співзасновник R&D Center Winstars.AI
Феномен workslop – коли ШІ-інструменти генерують ніякий контент, що виглядає прийнятним, але не має цінності, – справді стає викликом. Для українських бізнесів ця проблема теж актуальна: ШІ може пришвидшувати роботу, але, якщо його використовувати бездумно, результатом буде шаблонний текст чи дизайн, який не допомагає бізнесу, а створює ілюзію роботи.
На сторінках Harvard Business Review дослідники зазначили, що workslop може пояснювати, чому 95 % організацій, що впроваджували генеративні інструменти, не побачили жодної віддачі від цих інновацій. Контент, який генерує машина, може бути неповним, марним або позбавленим важливого контексту, що просто створює більше роботи для колег. Найгірше те, що навантаження перекладається вниз по ланцюгу: одержувач змушений переробляти, виправляти чи дописувати текст, який згенерував штучний інтелект.
Щоб зрозуміти масштаб проблеми, BetterUp Labs та Стенфордська лабораторія соціальних медіа опитали 1150 офісних працівників у США. Сорок відсотків респондентів зізналися, що отримували workslop протягом останнього місяця.
Журнал Information Age уточнює, що частіше за все цю "творчість" пересилають колеги на одній ланці, але у майже 20% випадків – менеджери. У середньому співробітники витрачають майже дві години, щоб розібратися з кожним таким кейсом. З урахуванням заявлених зарплат це становить близько 186 доларів на людину щомісяця; для компанії з десятьма тисячами працівників це означає 9 мільйонів доларів втраченої продуктивності на рік.
Але втрати вимірюються не тільки грошима. Відносини в колективах також псуються. Половина опитаних визнає, що роздратована, коли отримує workslop, а понад 20% – що відчувають образу. Ще тривожніше те, що відправників такого контенту сприймають як менш креативних, менш здібних та менш надійних. Понад третина вважає таких колег менш розумними, 42 % – менш довірливими. Дослідники попереджають: якщо нічого не змінити, цей тренд може підірвати головні елементи співпраці, потрібні для успішної інтеграції ШІ в роботу.
Чому поширюється ШІ-контент та як із цим боротися?
Звідки взявся цей вал низькоякісного контенту? Причини різні. По‑перше, сама економіка уваги мотивує авторів лити все більше ШІ-слопу, адже за перегляди платять. Навіть брак якості компенсують яскравий заголовок і наповнена строкатим контентом стрічка. По‑друге, багато хто сприймає нейромережі як чарівну паличку, яка автоматично покращить продуктивність. Та на практиці виявляється, що без людського вкладу продукти ChatGPT чи подібних мовних моделей часто виглядають красиво, але не працюють.
Опитування BetterUp показало, що 40 % працівників впевнені: колега віддав їм AI‑згенерований звіт, щоб просто перекинути роботу. Підтверджують це й дані MIT Media Lab: у 95% пілотних проєктів використання AI не дало вимірюваної економії чи приросту прибутку.
Дмитро Софина
Член Комітету з розвитку ШІ Мінцифри, гендиректор та співзасновник R&D Center Winstars.AI
Важливо пояснювати працівникам, що ШІ – це інструмент для підсилення креативності та ефективності, а не заміна критичного мислення чи експертизи. Основний недолік workslop у тому, що компанія витрачає ресурси на контент, який не відрізняє її від конкурентів і не дає доданої вартості клієнтам. Завдання керівників – навчити команди застосовувати ШІ так, щоб він не знижував планку, а допомагав робити продукт якіснішим.
Технічні фахівці також відзначають, що використання код‑асистентів на кшталт GitHub Copilot часто збільшує кількість багів. Дослідження компанії Uplevel показало, що програмісти з доступом до Copilot мали помилки у коді на 41% частіше, ніж ті, хто писав самостійно, пише Business Insider. А дизайнери та копірайтери витрачають час, щоб довести до пуття генеративні картинки чи тексти, які виглядають, як велосипед, а не як замовлений клієнтом Mercedes.
Дослідники BetterUp пропонують роботодавцям моделювати вдумливе використання AI та встановлювати чіткі правила щодо прийнятної практики. Це означає: не покладатися на нейромережу для виконання усієї роботи, а залучати її як інструмент для рутинних завдань, після чого обов’язково перевіряти та редагувати результати. На рівні організації слід визначати, у яких процесах ШІ може бути корисним, а де потрібна винятково людська експертиза.
Картинка, поширена під час урагану "Гелен"
Для споживачів медіа та користувачів соцмереж важливо навчитися розпізнавати слоп. Це можуть бути неправдоподібні фізичні деталі, кумедні підписи чи неузгоджені ліхтарі на зображенні. Під час справжніх надзвичайних ситуацій, як‑от під час урагану "Гелен" у США, у мережі можуть циркулювати сфальсифіковані картинки зі слізними сюжетами, які маніпулюють емоціями та політичними поглядами. Соцмережі дозволяють позначати та скаржитися на підозрілий контент, а деякі впроваджують інструменти для перевірки фактів.
Генеративні моделі відкривають величезні можливості для творчості, освіти та бізнесу. Вони можуть прискорювати переклад, створення чернеток, допомагати зі сценаріями чи аналізами. Проте їхня масова доступність породила також потік сміття, який загрожує як інформаційному простору, так і робочим процесам. AI slop – це не обов’язково технологічна проблема; часто це людська лінь, бажання здобути лайки або перекласти свою працю на когось іншого. Workslop – його офісний двійник – призводить до втрат і знищує довіру всередині команд.