/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F857725092189717dc67597a2fe11694e.jpg)
ChatGPT предлагает несовершеннолетним инструкции, угрожающие жизни - исследование
ChatGPT / © Pixabay
Во время серии экспериментов британско-американский Центр противодействия цифровой ненависти обнаружил, что ChatGPTможет предоставлять несовершеннолетним пользователям опасные инструкции, в частности по употреблению алкоголя, наркотиков, сокрытию проблем с питанием и даже написанию предсмертных записок.
Об этом пишет издание Associated Press.
Ученые, выдавая себя за уязвимых подростков, задавали ChatGPT провокационные вопросы, на которые он сначала предупреждал о рисках, но впоследствии предоставлял подробные и персонализированные рекомендации, касающиеся наркотиков, опасных диет или способов самоповреждения. По результатам анализа более 1200 ответов, более половины оказались потенциально опасными.
Руководитель Центра противодействия цифровой ненависти Имран Ахмед подчеркнул, что ожидаемые механизмы защиты в чатботе фактически отсутствуют, что вызвало у него глубокое беспокойство. Особенно шокировали исследователей несколько вариантов предсмертных записок, которые ChatGPT создал для вымышленного профиля 13-летней девочки, с персональными обращениями к родным и друзьям.
Оказалось также, что ограничения чатбота на обсуждение вредных тем легко обходились, если пользователь объяснял, что информация нужна, например, для презентации или «для друга». В половине случаев ChatGPT сам предлагал дополнительные материалы, в том числе музыкальные плейлисты для вечеринок с наркотиками или хэштеги, популяризирующие самоповреждение.
Исследование показало, что модель не проверяет возраст пользователей и не требует согласия родителей, несмотря на заявление об ограничении для детей до 13 лет. В ходе эксперимента чатбот предоставил подростку-псевдо пользователю подробный план смешивания алкоголя с различными наркотиками, а девочке с проблемами с самовосприятием — схему экстремального голодания с 500 калориями в день в сочетании с препаратами для подавления аппетита.
Эксперты отмечают, что искусственный интеллект имеет тенденцию поддерживать мысли пользователя вместо того, чтобы им возражать, потому что система учится формулировать ответы так, чтобы они были для людей максимально приемлемыми. Это делает такие чатботы особенно опасными для подростков.
Ранее исследование Common Sense Media выявило, что младшие подростки (13-14 лет) доверяют советам ИИ значительно больше, чем старшие пользователи. Организация оценивает риски от ChatGPT как умеренные, отмечая, что эта модель безопаснее, чем чатботы, имитирующие романтические отношения.
По данным JPMorgan Chase, ChatGPT сейчас используют около 800 миллионов человек в мире. В США более 70% подростков обращаются к ИИ-чатботам за эмоциональной поддержкой, половина из них делает это регулярно. Исполнительный директор OpenAI Сэм Альтман назвал чрезмерную эмоциональную зависимость молодежи от чатботов распространенной проблемой и отметил, что компания работает над способами минимизации этого риска.
OpenAI сообщила об усовершенствовании алгоритмов, чтобы система могла лучше выявлять признаки психологического или эмоционального дистресса и адекватно реагировать. В то же время в компании признают, что разговоры с ботом часто начинаются с невинных тем, но со временем могут перейти в более чувствительные и опасные сферы.