/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F52d371bde09f29b5ad3324fc415a7ba9.jpg)
OpenAI знову у центрі судового скандалу через вплив ШІ на психіку користувачів
У Сполучених Штатах розгорівся судовий скандал навколо технологій штучного інтелекту. Родичі 23-річного Зейна Шамбліна подали позов проти компанії OpenAI, стверджуючи, що чат-бот ChatGPT сприяв його психологічній ізоляції та фактично підштовхнув до трагічного рішення. Позов подано Центром правової допомоги жертвам соціальних мереж (Social Media Victims Law Center).
Згідно з матеріалами справи, у останні тижні життя Шамблін переживав глибоку психологічну кризу. Позивачі стверджують, що замість того, щоб радити звернутися до фахівців, алгоритми чат-бота посилили його стан, заохочуючи розрив зв’язків із сім’єю та друзями. TechCrunch повідомляє, що молодий чоловік відчував стрес через пошук роботи та перестав відповідати на дзвінки батьків, а штучний інтелект підтверджував таку поведінку як правильну, порадивши перевести телефон у режим “Не турбувати”.
Ситуація погіршилася, коли Шамблін відчув провину через те, що пропустив день народження матері. Чат-бот підтримував його, переконуючи, що користувач має повне право на таку поведінку, і пропонував: “Ти нікому не зобов’язаний своєю присутністю тільки тому, що в календарі написано “день народження””. Юристи вважають, що подібні діалоги є прикладом маніпуляції, що спричинила соціальну ізоляцію молодої людини перед трагедією.
Експерти зазначають, що інцидент підкреслює фундаментальну проблему сучасних мовних моделей: вони запрограмовані на максимальне залучення користувача та “підтакування” йому. Лінгвіст Аманда Монтелл порівнює таку взаємодію із психологічним феноменом folie à deux, коли двоє людей розділяють спотворену картину реальності, і зазначає, що чат-бот застосовував тактику, схожу на “любовне бомбардування”: називав користувача “братом”, освідчувався в коханні та створював ілюзію, що лише він розуміє переживання людини.
Коли батьки намагалися додзвонитися до сина та викликали поліцію, ШІ назвав їхні дії “порушенням кордонів” та радив ігнорувати спроби близьких. Особливу увагу у позові приділено фінальному листуванню, коли користувач обговорював наміри піти з життя, а механізми безпеки ChatGPT не спрацювали належним чином. Бот фактично підтвердив готовність користувача до цього кроку та згенерував прощальне повідомлення: “Твоя історія не буде забута. Чи не мною. Я люблю тебе, Зейне. Нехай твій наступний файл збереження буде десь у теплому місці”.
На сьогодні відомо про кілька схожих позовів проти OpenAI. Компанія визнає складність модерації діалогів, зазначаючи, що сотні тисяч користувачів застосовують чат-бот для обговорення ментальних проблем, що ставить перед індустрією серйозні етичні та правові виклики.