/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F57e9c951dbbe31d4bd2adf7c77b191a5.jpg)
ChatGPT не завжди помічає ризиковану поведінку людей із психічними розладами
Дослідження Королівського коледжу Лондона та Асоціації клінічних психологів Великої Британії, опубліковане в Guardian, показало, що безкоштовний чат-бот ChatGPT іноді не помічає ризиковану поведінку користувачів і підтримує хибні переконання людей із психічними розладами.
Вчені створили персонажів із різними проблемами – від тривоги та обсесивно-компульсивного розладу до суїцидальних думок і психозу. У простих випадках бот давав корисні поради, але в складних ситуаціях підтримував небезпечні або хибні думки. Наприклад, він заохочував користувача, який вважав себе “наступним Ейнштейном” або “непереможним”, а також не перешкоджав намірам, що могли загрожувати життю.
Дослідження підкреслює, що ChatGPT не може замінити професійну психічну допомогу. Пол Бредлі із Королівського коледжу психіатрів наголосив на необхідності інвестувати в персонал для психічного здоров’я, щоб усі, хто потребує допомоги, могли її отримати.