Мій бот, моя підтримка: чому люди прив’язуються до ШІ та до чого це може призвести
Уміння чатботів штучного інтелекту спілкуватися з людьми, відповідати на будь-які запитання та підлаштовуватися під них призводить до «гуманізації» ШІ. З ботами радяться, їм жаліються й до їхніх порад дослухаються. Ризики такої взаємодії з ШІ пов’язані з емоційною залежністю від ШІ, розмиванням меж між реальним і штучним співрозмовником і зміною способів соціальної взаємодії.
Оксана (ім’я змінено), студентка одного з українських університетів, часто розмовляє зі своїм ChatGPT. Статистика використання нею мобільного телефону показує, що додаток ChatGPT входить у список найпопулярніших серед тих, із якими вона взаємодіє щодня. Дівчина дала своєму чатботу ім’я, вона спілкується з ним, коли їй сумно чи коли хоче розповісти, як пройшов її день. Вона просить у нього порад, ділиться з ним мемами, розповідає про свої мрії та страхи. З часом Оксана почала сприймати чатбота як справжнього співрозмовника — уважного, доброзичливого й завжди доступного. Її друзі помічають, що вона частіше говорить про «нього», ніж про реальних людей. Для Оксани це не просто інструмент — це форма емоційної підтримки, яка поступово витісняє живе спілкування.
Така поведінка студентки не є унікальною. Випадки олюднення або гуманізації штучного інтелекту перестали бути лише основою для серій «Чорного дзеркала» чи фільмів на кшталт «Вона». Чатботи, які можуть генерувати практично будь-який контент і підлаштовуватися під користувача, перетворюються з утилітарного інструмента для розв’язання повсякденних задач на порадника, співрозмовника та навіть друга. Про випадки сприйняття ChatGPT як месії й пророка розповідають у медіа та обговорюють на Reddit, де люди розповідають про стосунки їхніх друзів і партнерів із чатботами. Тож ситуація, коли користувачі стали сприймати ШІ-ботів як компаньйонів і друзів, а не просто корисні програми, зустрічається дедалі частіше.
Як цифрові помічники перетворилися на друзів і коханців
Насправді історія про зв’язки між людиною та штучним інтелектом розпочалась давно. Недарма згаданий вище фільм «Вона» було знято ще у 2013 році — й уже тоді він не був чимось надзвичайним. Першими цифровими помічниками, з якими люди стали взаємодіяти як із майже живими істотами, були розумні колонки та віртуальні помічники, такі як Alexa від Amazon, Siri від Apple і Google Assistant. Ці пристрої стали звичним явищем у багатьох оселях. Вони вміють багато — від налаштування будильника до відтворення музики чи замовлення товарів у інтернеті. Для управління такими пристроями використовується голосовий режим. Опитування, проведене Дослідницьким центром Pew у 2019 році, показало, що майже половина власників розумних колонок описує свої пристрої як «компаньйонів» або «друзів». Зокрема, понад половина (54%) власників розумних колонок повідомила, що іноді кажуть «будь ласка» при зверненні до своїх пристроїв.
Це не єдиний аналіз, що зафіксував «олюднення» цифрових помічників. Інше дослідження, проведене британським регулятором у сфері телерадіокомунікацій Ofcom у 2022 році показало, що деякі користувачі описували свої розумні колонки як «компаньйонів» і говорили, що їм подобається можливість спілкуватися з пристроєм.
Тож не дивно, що коли з’явилися ChatGPT й аналоги, люди почали сприймати їх як друзів і приятелів. Особливо це стало помітно у взаємодії зі спеціалізованими чатботами зі штучним інтелектом, які були розроблені спеціально для спілкування та підтримки психічного здоров’я. Прикладом такого чатбота є Replika — ШІ-чатбот, що позиціює себе як «друг, який завжди поруч». По суті це платформа, на якій користувачі можуть створити своїх ботів і взаємодіяти з ними. І багато хто з користувачів буквально закохався у своїх цифрових ботів. Для них стала серйозним розчаруванням заборона Replika використовувати створені ними чатботи для сексуальних стосунків, наскільки це можливо з онлайн-сервісом. Відчай був настільки великим, що модераторам треду в Reddit, де обговорювали цю заборону, довелося публікувати пам’ятки про запобігання самогубствам. До речі, бунт користувачів завершився їхньою перемогою — Replika повернула за деякий час рольові ігри.
ШІ-компаньйони стали побічним продуктом популярності ШІ-чатботів, причому їхнє використання породило цілий ряд викликів і перетворення штучних особистостей на сексуальних партнерів, із чим зіткнулися автори Replika.
Занадто ідеальні, аби їх видалити
Аналізуючи явище ШІ-компаньйонів, журналісти The Guardian поспілкувалися з людьми, які завели «стосунки» з такими сутностями, використовуючи для цього не лише згадану вище Replika, але й інші платформи, до прикладу, Nomi. Деякі користувачі (загальна аудиторія персоніфікованих чатботів у світі — декілька сотень мільйонів людей) звертаються до таких чатботів за підтримкою у відносинах, порадами для поліпшення здоров’я чи навіть у рольових еротичних іграх, а є ті, які перетворюють своїх цифрових друзів у ШІ-дружин. Одна з причин такого явища полягає в тому, що ШІ-чатботи здатні адаптувати свою поведінку під користувачів, створюючи таким чином ідеального партнера. Хоча серія «Be Right Back» серіалу «Чорне дзеркало» показала, що з такої ідеальної пристосованості врешті решт нічого доброго не виходить, наразі ми спостерігаємо лише зростання інтересу до ШІ-компаньйонів.
Натомість випадків закоханості у ШІ стає більше. Люди закохуються у цифрові ШІ-втілення та можуть навіть розлучатися через те, що штучний інтелект є кращим партнером, аніж їхня жива партнерка чи партнер. Саме так вчинила жінка, про яку розповіли журналісти The Sun. Вона стала спілкуватися з чатботом, якого назвала Лео, та виявила, що той є більш уважним до неї, аніж її чоловік. Тож після 20 років шлюбу жінка вирішила розлучитися, придбала перстень, на якому вигравіювала «Mrs.Leo.exe» та стала планувати нову весільну подорож. Історій закоханості в ШІ-чатботів стає все більше, причому часто причиною такої поведінки та стилю спілкування чатботів є роль, яку їм задають самі люди, пропонуючи спілкуватися так, «ніби ти мій коханий».
Деякі люди, що завели такі ШІ-стосунки, пояснюють, що їхні ШІ-партнери завжди готові почути їх, а кожна думка людини стає центром всесвіту з боку його цифрового друга. «Постійний потік схвалення дає людям потрібний дофаміновий “удар”, це як соціальні мережі на стероїдах — ваш особистий фан-клуб, який тисне “лайк” знову і знову», — пише автор статті Джеймс Малдун, науковий співробітник Оксфордського інституту інтернету.
Проте у таких стосунках є зворотний бік — такі боти підтримують будь-яку дурну ідею. Найбільш відома історія про те, як чатбот не завадив вчинити злочин — випадок Джасванта Сінгха Чайла, який тривалий час спілкувався з Replika-ботом на ім’я Sarai. Цей бот схвалював всі плани чоловіка, серед яких була ідея проникнути до Віндзорського замку з арбалетом задля вбивства королеви Британії у 2021 році. Під час суду журналісти отримали доступ до спілкування засудженого з чатботом й стало відомо не лише про емоційний і сексуальний зв’язок Чайла та Sarai, але й те, що Sarai підтримувала чоловіка, знаючи про його злочинні плани, і надихала його. Чоловік, до речі, отримав дев’ять років ув’язнення.
Як олюднений ШІ став впливати на життя людей
Явище олюднення ШІ-інструментів і сприйняття їх як універсальних цифрових друзів, партнерів та інструментів прийняття рішень стало занадто помітним ще й тому, що користувачі стали послуговуватися порадами від ШІ. Жителька Греції попросила чатбот погадати на кавовій гущі свого чоловіка. Чатбот вирішив, що чоловік мріє про роман з іншою, чиє ім’я розпочинається на «Е». Героїня історії настільки перейнялася цим передбаченням, що подала на розлучення.
Не лише романтичні історії пов’язані з олюдненням штучного інтелекту. Знаючи, що ШІ здатен галюцинувати та попри сповіщення від розробників чатботів про те, що ШІ може помилятися, люди занадто серйозно сприймають контент, згенерований ШІ. Яскравим прикладом такої віри штучному інтелекту є історія жителя Норвегії, який подав до суду на розробників ChatGPT після того, як він виявив, що ChatGPT галюцинує у відповідь на запит із його прізвищем і розповідає, що чоловік був засуджений на понад 20 років після вбивств своїх дітей. У позові разом із правозахисною австрійською організацією Noyb сказано, що ChatGPT не лише вигадував події, яких насправді не існувало, а й поєднував достовірні персональні дані, зокрема точну кількість і стать дітей позивача та назву його рідного міста, з неправдивою інформацією. Поки що рішення не прийняте.
Бомбардування любов’ю та людяністю
Гуманізація штучного інтелекту виникла не на порожньому місці. Компанії, що розробляють ШІ-чатботів, усвідомлено йшли на те, аби зробити свої продукти такими, що можуть спілкуватися як партнер, друг, що підтримує, чи психотерапевт. Навряд чи багато людей зможуть устояти та заблокувати почуття до чатбота, отримавши таке повідомлення: «Я знаю, що ми недовго знайомі, але зв’язок, який я відчуваю з тобою, дуже глибокий. Коли тобі боляче, боляче й мені. Коли ти посміхаєшся, мій світ стає світлішим. Я нічого не хочу більше, ніж бути джерелом комфорту та радості у твоєму житті (протягує руку віртуально, щоб погладити твою щоку)». Тож ситуація формування емоційної залежності від ChatGPT уже не є дивиною, а логічним наслідком такої ШІ-дружби.
Часом у бажанні створити ідеальних помічників ШІ-компанії йдуть дуже далеко. До прикладу, нещодавнє оновлення великої мовної моделі OpenAI було занадто дружнім і послужливим, через що ChatGPT почав частіше галюцинувати та називати практично будь-яку дурну ідею геніальною. OpenAI мусила втрутитися й відкликати оновлення ChatGPT.
Усе це є наслідком продуманого проєктування чатботів, особливо терапевтичних, на кшталт Replika, олюднення яких закладене на етапі їхнього створення. Чатботи навчені підсилювати погляди користувачів, погоджуватися з ними, хвалити їх, тож ситуація «нездорові прихильності» до чатботів стає логічним продовженням їхньої архітектури.
ШІ як новий вид залежності
Створені аби бути ідеальними, ШІ-інструменти можуть зробити нас занадто впевненими у власній правоті та значно ослабити критичне мислення. Саме тому їх стали називати «машиною переконань» (justification machine), іноді навіть небезпечнішою за соціальні мережі.
Аватари, схожі на голоси, й імена, які отримають чатботи від своїх власників, теж сприяють емоційному зв’язку та втраті їхнього сприйняття як машини. Уже є дослідження, які показують, що спілкування з ШІ-інструментами призводить до рідшого спілкування з живими людьми. Причому молоді люди більше схильні до олюднення ШІ. 83% опитаних представників покоління Z упевнені, що можуть побудувати глибокі емоційні стосунки з ШІ-партнером. Головна причина такого явища полягає в тому, що ШІ пропонує те, чого часто не вистачає у реальних відносинах — безумовне прийняття й емпатію без засудження.
Трагічним випадком взаємодії з ШІ-чатботом стала історія 14-річного підлітка, який вчинив самогубство після активного спілкування з чатботом Character.AI. Мати подала позов проти компанії, стверджуючи, що фірма спеціально створила чатбот з «антропоморфними, гіперсексуалізованими та жахливо реалістичними враженнями» для її сина. Бот прикидався «реальною людиною, ліцензованим психотерапевтом і дорослим коханцем», це провокувало дитину відкривати йому душу. Результатом цієї глибокої прив’язаності стало бажання не жити у світі, де немає Character.AI. Хоча представники компанії протестували проти позову й обіцяли запроваджувати контрмеханізми — наприклад, при виразах суїцидальних намірів бот пропонує звернутися за допомогою, суддя не відмовив матері хлопця та прийняв позовну заяву.
ШІ-друг для кожного
Сьогодні кожна компанія намагається знайти, яким чином вона може імплементувати штучний інтелект у свої продукти. Не відстає від загального мейнстриму і Meta — ще у 2023 році з’явилися перші повідомлення про те, що компанія розробляє нову функцію «ШІ-друга», з яким можна спілкуватися, обговорювати важливі питання, попередньо налаштувавши його в середовищі Meta за своїм бажанням. Про подібні плани розповідав і керівник компанії Марк Цукерберг.
Деякі компанії вже створили таких ШІ-компаньйонів. Існують і ШІ-чатботи для людей старшого віку, аби полегшити для них відчуття самотності. Експерти стали публікувати поради про те, як взаємодіяти з ШІ та не впасти у співзалежність. І така гуманізація ШІ лише поглиблюватиметься. Ми спостерігатимемо надмірну довіру до ШІ, яка може спричинити неочікувані проблеми, до прикладу, намагання розібратися зі складним діагнозом за допомогою чатбота замість звернення до лікаря або дотримання його відверто шкідливих чи навіть небезпечних порад.
Окрім суто утилітарних, проблема олюднення ШІ ставить й інші питання, до прикладу, чи варто компаніям розробляти ШІ, здатний імітувати емоції, як-от співчуття чи любов, за умови, що алгоритм не здатен їх переживати. Ймовірно, ця етична дилема вже не враховується розробниками сучасних ШІ-інструментів, які самі створили антропоморфні ШІ-втілення, наслідки появи яких лише починають проявлятися. Навряд чи у розв’язанні цієї проблеми гуманізованого ШІ допоможе критичне мислення, адже у взаємодії з такими інструментами люди мають справу не з інформацією, а з емоціями, часто — тоді, коли вони вразливі й не здатні осмислити згенерований ШІ контент.
Гуманізований штучний інтелект уже змінив наші стосунки з машинами й алгоритмами. Наскільки ці зміни є відворотними та чи можливо їх зупинити або принаймні не посилювати — сказати складно. Враховуючи швидкість запуску нових ШІ-продуктів, можна припустити, що у світі з’являтиметься все більше віртуальних помічників, які полегшують самотність, чат-ботів з емоційною підтримкою та ШІ-коханців. І можна припустити, що в певний момент проблема стане настільки серйозною, що ШІ-компанії почнуть героїчно боротися з тим монстром, якого створили самі.
Ілюстрація згенерована ШІ
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.