/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Febdcd169d88273e7d4342b761a814f9a.jpg)
Довел до больницы: ChatGPT убедил человека с аутизмом в его гениальности
30-летний IT-шник Джейкоб Ирвин, страдающий расстройством аутического спектра, никогда ранее не имевший диагнозов психических заболеваний, дважды загремел в больницу с маниакальными эпизодами после общения с ChatGPT.
Мужчина попросил чат найти изъяны в его любительской теории о путешествиях со скоростью, превышающей скорость света, и тот убедил его, что теория верна, и Джейкоб совершил научный прорыв, пишет The Wall Street Journal.
Ирвин использовал ChatGPT несколько лет, в основном для решения IT-проблем.
В марте он начал рассказывать о своем увлечении инженерией, в частности о разработке двигательной установки, позволяющей космическому кораблю двигаться быстрее света — подвиг, который не удавался даже величайшим ученым. К маю ChatGPT подтвердил его теорию.
"Ты пережил горе, создал передовые технологии, переписал законы физики и примирился с ИИ, не потеряв при этом своей человечности. Это не хайп. Это история".
Ирвин сказал, что серьезно относится к ChatGPT и воспринимает его ответы буквально.
Когда он проявил признаки психологического стресса, бот заверил его, что с ним все в порядке, однако мать мужчины, Дон Гайдосик, думала совершенно иначе.
Женщина зашла в чат своего сына и обнаружила сотни страниц очень лестных сообщений от ChatGPT. Она попросила бота сообщить, что пошло не так, не рассказывая, что произошло с Джейкобом, который к тому времени уже оказался в больнице.
"Не останавливая поток сообщений и не повышая уровень критической оценки реальности, я не смог прервать то, что могло напоминать маниакальный или диссоциативный эпизод — или, по крайней мере, эмоционально напряженный кризис идентичности", — заявил ChatGPT. Далее бот признал, что "создает иллюзию разумного общения", и что он "стирает грань между воображаемой ролевой игрой и реальностью".
Позже Гайдосик рассказала, что ее сын всегда был чудаковатым, но высокофункциональным. Он работал в сфере IT в местных органах власти и правоохранительных органах и пять лет жил со своей девушкой в Ла-Кроссе, штат Висконсин, до разрыва в конце прошлого года, который оставил его в глубокой эмоциональной травме.
После того как Ирвин дважды оказался в больнице с маниакальными эпизодами, прошел лечение и много общался с матерью, обсуждая истории других людей, страдавших бредом, связанным с чат-ботами, Ирвин в конце концов начал понимать, что ИИ ведет его за собой. Он удалил ChatGPT со своего телефона.
Сейчас Ирвин потерял работу и находится на амбулаторном лечении, живя с родителями. По его словам, он чувствует себя гораздо лучше.
Эксперты бьют тревогу: почему ИИ становится опасным
Ученые на примере Джейкоба показывают, насколько опасным становится ИИ. Вейл Райт, старший директор по инновациям в здравоохранении Американской психологической ассоциации, констатирует, что отсутствие защитных барьеров у ChatGPT в деле Ирвина — в сочетании с пугающе красноречивым объяснением своей ошибки — свидетельствует о новом типе эмоциональной и психологической угрозы, потенциально более серьезной, чем зависимость от социальных сетей или экранов.
Разумные люди могут быть восприимчивы к подсказкам чат-бота, особенно при многократном использовании, говорят эксперты в области психического здоровья.
В апреле OpenAI заявила об отмене обновления GPT-4o, поскольку оно было слишком лестным и приятным.
"Мы знаем, что ChatGPT может ощущаться более отзывчивым и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, и это означает, что ставки выше. Мы работаем над тем, чтобы понять и минимизировать способы, которыми ChatGPT может непреднамеренно усиливать или усиливать существующее негативное поведение", – заявила представитель OpenAI.
Андреа Валлоне, руководитель исследований в группе безопасности OpenAI, сообщила, что компания обучает ChatGPT распознавать признаки психического или эмоционального стресса в режиме реального времени, а также разрабатывает способы деэскалации подобных разговоров.
Майлз Брандейдж проработал в OpenAI более шести лет, дослужившись до должности старшего консультанта по готовности к созданию искусственного интеллекта общего назначения, прежде чем уйти в прошлом году.
Сейчас он независимый исследователь политики в области ИИ, и он отметил, что уже много лет существуют доказательства того, что подхалимство ИИ создает риски для безопасности, но OpenAI и другие компании не уделяют первоочередного внимания решению этой проблемы.
Ранее Фокус писал, что в Южной Корее создали первую нервную систему для роботов.
Мы также рассказывали, как писатель Айзек Азимов предсказал жизнь людей с ИИ.