/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F17818460acccb6762096bb5806491bcb.jpg)
"Был параноидальным": мужчина оказался в психбольнице после того, как выполнил совет ChatGPT
60-летний мужчина решил прекратить употреблять поваренную соль и спросил у ChatGPT, чем ее лучше заменить. После того, как мужчина прислушался к совету нейросети, он оказался в психиатрической больнице.
ChatGPT посоветовал мужчине заменить хлорид натрия (поваренную соль) на бромид натрия, пишет Independent.
Из-за совета чат-бота за три месяца особой "диеты" у мужчины произошло хроническое отравление бромом. Пациент не имел в своем анамнезе психических расстройств, но в первые 24 часа после госпитализации он демонстрировал усиленную паранойю, слуховые и зрительные галлюцинации.
"Он очень хотел пить, но в то же время был параноидальным относительно воды, которую ему предлагали", — говорилось в отчете медиков.
После того, как состояние мужчины улучшилось в результате лечения жидкостями и электролитами, его перевели в стационарное психиатрическое отделение больницы. Когда психическое состояние пациента стабилизировалось, врачам удалось расспросить его и выяснить причины появления отравления.
Выяснилось, что мужчина решил отказаться от поваренной соли (хлорид натрия), поскольку слышал о ее вреде для здоровья. Заменить ее он решил на другой вид соли — бромид натрия. И на такой диете он провел три месяца, прежде чем попал в психбольницу.
В конце концов мужчина провел в больнице три недели, прежде чем выздоровел достаточно, чтобы его выписали.
"Важно учитывать, что ChatGPT и другие системы искусственного интеллекта могут генерировать научные неточности, не иметь возможности критически обсуждать результаты и в конечном итоге способствовать распространению дезинформации", — отметили авторы материала.
Фокус также писал о том, что ChatGPT научился проходить проверку на человечность.