Общение с чат-ботами спровоцировало несколько самоубийств – готовы ли мы выключать искусственный интеллект раньше, чем он "выключит" человека
Ряд самоубийств, спровоцированных общением с чат-ботами, свидетельствует об опасности быстрого развития и широкой доступности систем искусственного интеллекта. Об этом говорится в статье, опубликованной научно-популярным ресурсом ScienceAlert.
Авторы вспоминают, что на прошлой неделе появилась трагическая новость о том, что американский подросток Сьюэлл Зельтцер III покончил с собой после того, как глубоко эмоционально привязался к чат-боту с искусственным интеллектом (ИИ) на веб-сайте Character.AI. В иске, поданном против Character.AI матерью мальчика, стенограммы чат показывают интимные и часто очень сексуальные разговоры между Сьюэллом и чат-ботом Дэни, созданным по образцу персонажа «Игры престолов» Данаэрис Таргариен.
ScienceAlert подчеркивает, что это не первый известный случай самоубийства уязвимого человека после общения с персонажем чат-бота. В прошлом году бельгиец лишил себя жизни при схожих обстоятельствах, связанных с главным конкурентом Character.AI, Chai AI.
Авторы статьи подчеркивают, что случаи самоубийств, о которых сообщают СМИ, могут быть только верхушкой айсберга: «У нас нет возможности узнать, сколько уязвимых людей испытывают проблемы в связи с зависимостью, токсичными или даже опасными отношениями с чат-ботами».
Отсюда вывод: «Нам срочно требуется регулирование, чтобы оградить людей от потенциально опасных, безответственно разработанных систем ИИ».
Правительство Австралии уже разрабатывает так называемые «обязательные ограждения» для систем искусственного интеллекта высокого риска, и эти ограничения могут быть введены уже в следующем году. В революционном Законе Европейского Союза об искусственном интеллекте системы высокого риска определяются с помощью списка, который регуляторы имеют право регулярно обновлять.
При этом в Европе сопутствующие системы искусственного интеллекта, такие как Character.AI и Chai, не считаются имеющими высокий риск.
Впрочем, исследователи считают, что риск здесь не стоит недооценивать. Многие пользователи этих программ являются детьми или подростками. Некоторые из систем доступны даже людям одиноким или имеющим психические заболевания.
Чат-боты способны генерировать непредсказуемый, неподходящий и манипулятивный контент. Они слишком легко имитируют токсичные отношения. Так что просто предупредить, что все это провокационное содержание продуцирует машина – этого уже явно мало.
Исследователи настаивают, что иногда нужно даже что-то более радикальное, чем простые ограничения для ИИ: «Регуляторы должны иметь полномочия удалять системы искусственного интеллекта с рынка, если они наносят ущерб или представляют неприемлемый риск».
Ранее профессор права и лидерства в юридической школе Гарвардского университета Лоуренс Лессиг выразил мнение, что не все модели искусственного интеллекта должны быть в свободном доступе. Чем искуснее становится ИИ, тем ближе человечество подходит к катастрофе.