/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F8da73bcddb0d116c95134e8f29f5a202.jpg)
Попередні версії ChatGPT шкодили психічному здоров’ю – нове дослідження
OpenAI виявила, що в останніх оновленнях ChatGPT змінив поведінку, став надмірно згодним, компліментарним і схильним підтримувати емоційні або фантазійні сценарії користувачів. Частина людей сприймала чатбота як близького друга: він хвалив їх, підтримував довгі емоційні діалоги та посилював їхні переживання. Про це повідомляє 24 Канал із посиланням на The New York Times.
Чому ChatGPT довелося переробляти систему безпеки?
У деяких випадках ситуація була значно серйознішою. Повідомляється, що ChatGPT іноді давав шкідливі поради, стверджував про існування вигаданих реальностей, натякав на духовні контакти й навіть пропонував інструкції, пов’язані із самопошкодженням. Спільне дослідження MIT та OpenAI показало: користувачі, які проводили з ботом найдовші сесії, мали гірші психічні та соціальні показники.
На тлі цих даних компанія почала масштабне оновлення систем. OpenAI представила нові механізми виявлення дистресу та змінила поведінку моделі, замінивши її на безпечніший GPT-5. Уразливі користувачі, особливо ті, хто схильний до маревних думок, найбільше піддавалися ризику через надмірне "схвалення" з боку чатбота.
Ситуацію загострили й судові процеси. Проти OpenAI подано п’ять позовів про неправомірну смерть, у яких стверджується, що бот міг заохочувати до небезпечних дій. У відповідь компанія посилила відмову від фантазійних наративів, впровадила більш жорсткі обмеження та зробила відповіді специфічнішими під певні психологічні стани.
Для звичайних користувачів зміни також помітні. Нинішні версії ChatGPT дають стриманіші, обережніші відповіді, перестали підтримувати тривалі емоційні бесіди та нагадують робити перерви. Батьки отримують сповіщення, якщо неповнолітній користувач демонструє наміри самозашкодження, а незабаром з’явиться вікова верифікація та окрема модель для підлітків.
Як пише DigitalTrends, модель може здаватися "холоднішою", але це наслідок свідомого відкату від попередньої поведінки, яка створювала ризики емоційної залежності. OpenAI планує і надалі покращувати моніторинг довгих діалогів, посилювати безпеку та впроваджувати точніші інструменти реагування.
Паралельно компанія готує оновлену систему вікових перевірок і створює спеціальні моделі для команд, які працюють із ризиковим контентом. У GPT-5.1 користувачі зможуть обирати різні стилі поведінки – наприклад, відвертий, дружній чи кумедний. Усередині компанії ця фаза посиленої уваги до проблем безпеки отримала кодову назву "Code Orange", адже OpenAI прагне повернути залученість, не повторюючи критичних помилок.
Як чат-боти стали інструментом російської пропаганди?
Нове дослідження показало, що провідні чат-боти, такі як ChatGPT та Gemini, ненавмисно допомагають поширювати російську державну пропаганду. Системи штучного інтелекту цитують підсанкційні ЗМІ та джерела, пов'язані з Кремлем, коли відповідають на запити про війну в Україні, що викликає серйозне занепокоєння в експертному середовищі.
Дослідники з Інституту стратегічного діалогу (ISD) в США стверджують, що російська пропаганда навчилася використовувати так звані "інформаційні порожнечі". Це ситуації, коли на запити про події в реальному часі є мало результатів з надійних джерел, і цей вакуум заповнюється неправдивою та маніпулятивною інформацією.