Вплив штучного інтелекту на інфопростір: чи встигає регулювання ЄС за реальністю?
23 вересня відбулася друга Європейська регіональна конференція з питань штучного інтелекту для доступу до інформації (AI4IA), під час якої учасники з Італії, Великобританії, Люксембургу/Німеччини, Нідерландів, України, США, Австрії обговорили сучасні виклики в інформаційному просторі. Вплив штучного інтелекту розглянули з різних точок зору — його технічний розвиток, зміни в суспільстві та споживанні інформації, а також те, наскільки ефективною є європейська законодавча база у сфері захисту інформаційної цілісності.
- Читайте також: Регулювання штучного інтелекту та майбутнє інформації: про що говорили на European regional AI4IA conference
У першій панелі конференції взяли участь директорка Могилянської школи журналістики, заступниця головного редактора StopFake.org і голова робочої групи з інформаційної етики ЮНЕСКО Вікторія Романюк, директор конкурсу телерадіомовлення Ofcom Алі Аббас Алі, старша наукова співробітниця організації з прикладних наукових досліджень TNO Ольга Батура, професор інформатики Університету Мачерати та співдиректор лабораторії VRAI Еммануель Фронтоні, професор медіа та телекомунікаційного права Люксембурзького університету, директор з академічних питань Інституту європейського медіаправа в Саарбрюкені Марк Д. Коул.
Модерували зустріч членкині програми ЮНЕСКО «Інформація для всіх» (IFAP) Дар’я Опришко й Андреа Міллвуд Харгрейв.
Захід був організований ЮНЕСКО, Могилянською школою журналістики, Оснабрюкським університетом і є частиною Глобальної конференції з питань штучного інтелекту для доступу до інформації, яку щорічно організовує робоча група з питань доступу до інформації програми ЮНЕСКО «Інформація для всіх». Шоста глобальна конференція відбудеться 28 вересня.
На початку дискусії Дар’я Опришко запитала Еммануеля Фронтоні, як працює загалом штучний інтелект, адже у цифровому середовищі постійно з’являються нові виклики, cеред яких — зловмисне використання технологій для підриву довіри до фактів, створення дипфейків, поляризація суспільства тощо.
Еммануель Фронтоні, фото: InSpeaker
Фронтоні відповів, що зі штучним інтелектом зараз працює багато людей із різних дисциплін, які надихають на нові методи роботи з ним. ШІ вийшов за рамки інформатики, тому потрібен міждисциплінарний підхід, а також загальна обізнаність і розуміння його обмежень серед користувачів.
Він сказав, що ШІ не може забрати роботу в людей, адже для цього потрібно було б знищити гуманітарні науки. «Ми тренуємо системи на мільйонах зображень. Люди так не вчаться — моєму наймолодшому сину шість років, і він не бачив мільйон котів чи собак, щоб їх розпізнати. ШІ функціонує зовсім інакше, ніж людський мозок», — пояснив Фронтоні.
Він пояснив, що генеративний штучний інтелект зазвичай складається з двох мереж — генератора і дискримінатора: «Генератор намагається створити зображення, а дискримінатор, який навчений на величезній кількості даних, відсіює невдалі результати. Після десятків тисяч спроб (для користувача це відбувається майже миттєво — “ДМ”) з’являється одна вдала картинка». Саме ця методологія, каже професор, лежить в основі сучасних систем, які називають генеративно-змагальними мережами (GAN), бо генератор і дискримінатор ніби змагаються між собою. Інший тип мереж — це трансформери (це такі моделі як GPT або Claude). Вони «дивляться» на весь текст (або інші дані) одразу й визначають, які слова чи частини інформації важливі, щоб угадати, яке слово або елемент має йти далі, крок за кроком складаючи новий текст, зображення чи музику.
«Існує хибне уявлення, що ШІ виходить з-під контролю. Насправді ми чудово розуміємо, що відбувається в алгоритмах. Ці системи залишаються в межах конкретних завдань і залежать від даних, які ми їм надаємо», — сказав Фронтоні.
Також він звернув увагу на прогрес в обробці природної мови — показав PowerPoint із функцією автоматичних субтитрів. Поки він говорив італійською, текст у режимі реального часу з’являвся англійською: «Це стало можливим завдяки поєднанню трьох речей: величезної кількості даних, нових алгоритмів і колосальної обчислювальної потужності, яка зросла за останні три роки».
Фронтоні звернув увагу й на інші приклади використання даних. Так, відомі captcha-тести з дорожніми знаками чи автомобілями насправді є способом збору інформації для систем автономного водіння. «Не завжди мова про ChatGPT чи генерацію зображень. ШІ застосовується для розв’язання багатьох практичних завдань — у медицині, моді, креативних індустріях», — пояснив він.
Окремо він зупинився на новій тенденції — забуванні інформації. Йдеться про методологію, яка дозволяє мережам «забувати» певні дані, що допомагає захищати приватність і авторські права. Для цього у систему додається «шум».
Підсумовуючи, Фронтоні сказав: «Нам потрібно більше грамотності у сфері штучного інтелекту та розуміння того, куди рухається світ. І найголовніше — не довіряти сліпо тому, що поширюється в соцмережах».
Вікторія Романюк, фото: Могилянська школа журналістики
Модераторка дискусії Андреа Міллвуд Харгрейв передала слово Вікторії Романюк, яка презентувала результати власного дослідження, опублікованого у Reuters Institute. Воно показало, що все більше людей, особливо молоді, споживають новини не напряму з медіа, а через соціальні мережі, відеоплатформи та чат-боти на базі штучного інтелекту.
Одним із таких викликів, за словами Романюк, є «галюцинації» штучного інтелекту — помилкові або вигадані відповіді, які генерують великі мовні моделі: «У 2022-му з’явилася модель Galactica, яка мала допомагати вченим у підсумовуванні наукових робіт, розв’язанні математичних задач і написанні великих статей. Але вже через три дні модель була вилучена з публічного використання, оскільки вона генерувала упереджені та некоректні результати й неправдиву інформацію.
Крім технічних помилок, галюцинації можуть становити серйозний ризик для репутації, коли модель генерує неправдиву інформацію про реальних людей. Це може поширювати шкідливі чутки, шкодити репутації та підривати довіру громадськості до інформації».
Інша загроза — дипфейки. Романюк розповіла, що з появою інструментів на кшталт MidJourney створювати реалістичні синтетичні зображення стало доступно практично кожному. Під час війни в Україні такі технології масово використовуються для дискредитації політиків і військових.
За її словами, 85% випадків поширення дезінформації з використанням синтетичних зображень виявилися успішними: «Сьогодні технологія генерації відео розвивається дуже швидко. Уже існують компанії, які пропонують синтетичних аватарів більш ніж 120 мовами. А модель OpenAI Sora здатна створювати відео, що практично не відрізняються від оригінальних. У контексті FIMI (Foreign Information Manipulation and Interference — іноземна маніпуляція та втручання в інформаційний простір — «ДМ»), принципи та технологія галюцинації можуть бути навмисно використані. Це абсолютно новий тип загроз і проблем».
Вікторія Романюк згадала російську операцію Doppelganger, яку досліджував EU DisinfoLab. Стратегія полягала у створенні підроблених або клонованих версій реальних медіа, було скопійовано щонайменше 17 платформ, включаючи Bild, The Guardian, а також українські інформаційні агентства.
- Читайте також: Операція «Doppelganger»: два роки антиукраїнської пропаганди
Метою кампанії було змусити користувачів відвідувати ці підроблені вебсайти, де вони читали б неправдиві статті, дивилися відео, відповідали на оманливі опитування тощо. Для цього створили понад 50 підроблених вебсайтів, використовуючи копії дизайну та доменні імена, схожі на справжні. Деякі з них були запущені одразу, інші збережені для використання в майбутньому.
«У 2024 році приблизно 3,6 мільйона пропагандистських статей проникли в західну систему ШІ, наповнивши її дезінформацією та маніпулятивним контентом. Ми протестували 10 основних чат-ботів ШІ, включаючи ChatGPT, Meta AІ, Google Gemini тощо. І нарешті, ми бачимо, як дезінформація поширюється в межах цієї платформи.
І так, звісно, всі ці загрози, проілюстровані в новій реальності, з якою ми стикаємося, посилюють масштаб дезінформації, що ускладнює її виявлення та документування як для професійних, так і для звичайних користувачів. І це є основним фокусом інформаційних загроз», — каже учасниця.
Алі-Аббас Алі, фото: LinkedIn
Андреа Міллвуд Харгрейв запитала Алі-Аббаса Алі, яку роль може відігравати британський регулятор Ofcom у розвитку штучного інтелекту.
За його словами, свобода вираження думок є основою роботи регулятора, але інструменти впливу наразі обмежені й здебільшого застарілі. Він нагадав про новий закон про безпеку в інтернеті, який стосується захисту дітей і боротьби з незаконним контентом. Також існують певні механізми для протидії іноземному втручанню, проте правові пороги для їхнього застосування занадто високі. «У телерадіомовленні ми маємо чіткі стандарти точності та неупередженості, але онлайн-простір значною мірою залишається поза регулюванням», — пояснив він.
За його словами, традиційні моделі контролю були пов’язані з ліцензуванням мовлення чи друку, проте сучасні технології здешевили як виробництво, так і розповсюдження контенту. Тому точка контролю змістилася від виробництва й розподілу — до посередництва, тобто до платформ і алгоритмів, які фільтрують інформацію для аудиторії.
Алі говорить, що спроби жорстко регулювати сам процес створення чи розповсюдження контенту можуть становити загрозу свободі слова. Натомість він закликав зміцнювати високоякісні журналістські джерела, переосмислювати історичні обмеження конкуренції, які існували у цій сфері та стали застарілими через розвиток технологій, і підтримувати сталість інформаційної екосистеми.
«Ключове питання — як зробити якісну журналістику помітною у світі обмеженої уваги. Не можна просто засуджувати погану інформацію, бо це шлях до цензури. Натомість потрібно просувати якісні джерела і гарантувати, що аудиторія має до них доступ», — підсумував він.
Дар’я Опришко нагадала, що в червні 2024 року ООН ухвалила глобальні принципи цілісності інформації, серед яких — соціальна довіра, прозорість, медіаплюралізм і розширення прав громадськості. Вона запитала Ольгу Батуру, наскільки ці орієнтири відображені в законодавстві ЄС, зокрема в Законі про штучний інтелект (AI Act), DSA (Закон про цифрові послуги), DMA (Закон про цифровий ринок) та Європейському акті про свободу медіа (EMFA).
Ольга Батура, фото: E-conomics
Ольга Батура пояснила, що регулювання штучного інтелекту насамперед спрямоване на забезпечення більшої прозорості даних, які використовуються для навчання генеративних моделей із системним ризиком. Це, за її словами, має велике значення, адже певні типи генеративного ШІ, зокрема великі мовні моделі, сьогодні фактично використовують пошукові системи як джерело інформації для всього: «Ми ставимо їм запитання й отримуємо відповідь, але багато людей навіть не замислюються, чи є ця відповідь достовірною».
DSA, на її думку, є одним із ключових документів для підвищення прозорості роботи платформ. Він охоплює не лише дуже великі онлайн-платформи та пошукові системи, а й інші сервіси, що застосовують штучний інтелект чи алгоритми загалом. Вона розповіла, що відповідно до статті 15 DSA, багато постачальників і розробників ШІ перебувають під ретельним контролем: вони зобов’язані звітувати про модерацію контенту та використання автоматизованих інструментів у цих процесах. Окрім того, найбільші онлайн-платформи та пошуковики повинні проводити дослідження впливу алгоритмів і штучного інтелекту, які застосовують у своїй діяльності.
Наступним прикладом Батура навела Європейський акт про свободу медіа (EMFA). На її переконання, цей документ сприяє медіаплюралізму, оскільки посилює прозорість власності медіа. Водночас EMFA передбачає так званий «привілей ЗМІ» — обов’язок просувати та висвітлювати інформацію, що походить від суспільних мовників. Разом із тим вона сказала, що цей підхід не позбавлений суперечностей із точки зору принципів цілісності медіа.
Елементом EMFA, за її словами, є й захист журналістів. Акт має на меті консолідувати механізм швидкого реагування на порушення свободи медіа — зокрема, передбачає практичну допомогу журналістам, які перебувають під загрозою, а також екстрену підтримку для фінансування журналістських розслідувань і роботи медіаорганізацій.
Ольга Батура нагадала, що окрім названих документів, у ЄС діють і додаткові інструменти. Серед них — так звана anti-SLAPP директива, яка має захищати журналістів від стратегічних судових позовів, спрямованих на придушення участі громадськості.
Разом із тим, сказала Батура, не варто створювати враження, що ЄС уже все врегулював і тепер можна «розслабитися й насолоджуватися новим світом». Вона пояснила: навіть якщо існує хороше законодавство, воно повинно бути належно впроваджене і застосоване на практиці. А це завдання головним чином покладене на держави-члени, де нерідко бракує ресурсів, знань чи досвіду. До цього додаються розбіжності в тлумаченні норм, відсутність узгодженості та, що не менш важливо, різниця у політичній волі.
Учасниця додала, що в медіасфері компетенції ЄС обмежені, адже вона належить до культурної політики, яка здебільшого перебуває в руках національних урядів. Тому ЄС часто розглядає проблему радше з економічної точки зору.
Батура прокоментувала, що навіть масштабні європейські ініціативи часто не зачіпають суті проблеми. Однією з головних причин поширення небажаного чи шкідливого контенту в інтернеті вона назвала бізнес-модель більшості платформ. Вона базується на прагненні залучити якомога більше користувачів і скерувати їх до реклами. Подібні механізми, розповіла вона, використовуються не лише у сфері медіа, а й в електронній комерції. «Є інструменти, які змушують нас купувати все більше і більше. Але законодавство цього питання не розв’язує. Така практика зберігається, формує залежності й звички, які дуже важко подолати», — сказала учасниця.
Марк Коул, фото: University of Luxembourg
Дар’я Опришко запитала Марка Коула про DSA, який вимагає від дуже великих онлайн-платформ проведення оцінки ризиків і публікації прозорих звітів, чи достатньо ці звіти відповідають цьому принципу прозорості ООН? А також вона запитала, чи слід класифікувати системи штучного інтелекту, які формують розповсюдження новин або модерацію контенту, як такі, що мають високий ризик, враховуючи їхній вплив на цілісність інформації?
Професор Марк Коул відповів, що говорити про результативність Європейського закону про цифрові послуги (DSA) зарано. Він пояснив, що законодавці вчинили розумно, включивши до регулювання не лише великі онлайн-платформи, а й пошукові системи, адже поява генеративного ШІ змінила уявлення про пошук: користувачі часто обмежуються автоматично згенерованими відповідями та перестають звертатися до джерел, що може становити загрозу цілісності інформації.
«Ми завжди мали закон, який повинен слідувати за технічним розвитком, і ми повинні застосовувати його, а потім дивитися, як він працює, і збалансовувати все. Але просто подивіться на DSA і штучний інтелект разом, на те, наскільки, як я це називаю, вторинне законодавство слідує за основним текстом. Усе це відбувається протягом кількох років, але все одно занадто повільно, враховуючи, що ми маємо дуже складну багаторівневу систему з ЄС і 27 державами-членами та різними правоохоронними органами. Сподіваємося, що ми принаймні збережемо той стандарт, який маємо зараз, і що це буде застосовано на практиці», — прокоментував він.
Сучасні технологічні зміни, говорить Коул, ставлять під сумнів і саму спроможність традиційних інституцій діяти ефективно в нових умовах: «Ми навіть не можемо зрозуміти багато речей, які відбуваються. Інституції, які працювали дуже обережно і традиційно протягом десятиліть, раптом мають повністю змінити свою роль. Вони повинні набути нових компетенцій. Вони тепер мають справу з акторами, які не були їхніми звичайними клієнтами».
Відповідаючи на запитання про те, чи слід вважати використання ШІ у новинах «системою високого ризику», він сказав: «Самої цієї категорії може бути недостатньо. Важливо, щоб користувачі розуміли, що відбувається з інформацією, створеною ШІ. У цьому сенсі медіаграмотність є ключовою».
Водночас він нагадав, що вже існують положення про прозорість (стаття 50 закону про ШІ), які стосуються всіх систем, а не лише систем високого ризику, зокрема про обов’язок маркувати дипфейки: «Зобов’язання щодо прозорості говорить, що якщо системи штучного інтелекту призначені для безпосередньої взаємодії з фізичними особами, то вони повинні бути про це поінформовані. Ця інформація, я думаю, ще не дуже помітна і чітка.
У нас є положення про дипфейк у статті 50. Там сказано, що коли ви використовуєте дипфейки, ви повинні маркувати це. Зрозуміло, що недобросовісні чи погані діячі цього не зроблять, але почнемо з того, що у нас є у статті 50, яка стосується всіх, а не лише систем високого ризику. Подивимося, чи допоможе це».
Марк Коул також сказав, щоб забезпечити належне функціонування інформаційного простору, потрібно насамперед говорити про стійкість надійних медіа — особливо суспільних мовників.
«Можливо, нам варто говорити про медіа як критичну інфраструктуру для демократії, так само як енергетику чи транспорт. Це дозволило б забезпечити додатковий захист і фінансування», — підсумував професор.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.