Ученые назвали четыре основные социальны опасности от нового умения ИИ
Искусственный интеллект (ИИ), который человечество стало активно применять во всех сферах жизни, научился обманывать. Причины такого поведения еще не выяснили.
Об этом сообщает Yahoo News со ссылкой на исследование ученых Массачусетского технологического института. Если не устранить неполадки, то ИИ начнут использовать для мошенничества, вербовки террористов, вмешательства в политику и других противозаконных вещей.
Ученый проанализировали данные некоторых моделей ИИ и обнаружили, что компьютеры умеют блефовать в покере, обманывать людей и использовать определенные уловки, чтобы получить преимущество в финансовых переговорах. Уже сейчас необходимо ввести регулирование, чтобы помешать технологиям развивать эти навыки, которые сформировались как случайные последствия многих программ.
"Системы искусственного интеллекта уже способны обманывать людей. Обман — это систематическое побуждение других к ложным убеждениям для достижения какого-либо результата, отличного от истины. Большие языковые модели и другие системы искусственного интеллекта уже научились в ходе обучения способности обманывать с помощью таких методов, как манипуляция, подхалимство и мошенничество", — пишут авторы исследования.
А систему искусственного интеллекта Meta "Цицерон", которая входит в десятку лучших игроков-людей в стратегической игре "Дипломатия", назвали "мастером обмана". Выяснилось, что она умеет применять скрытую тактику.
"Хотя Meta преуспела в обучении своего ИИ победе в игре в дипломатию… [ей] не удалось научить его… побеждать честно", – сказал автор исследования доктор Питер С. Парк.
Также ученые выяснили, что разные модели ИИ могут блефовать в техасском холдем-покере, имитировать атаки в других стратегических играх и искажать свои истинные предпочтения, чтобы выйти победителем при бартере.
Разработчики пока не понимают, из-за чего у ИИ возникает "нежелательное поведение", такое, как обман. Но есть предположения.
"Но, вообще говоря, мы считаем, что обман ИИ возникает потому, что стратегия, основанная на обмане, оказалась лучшим способом хорошо выполнить данную задачу обучения ИИ. Обман помогает им достичь своих целей", — говорят они.
Исследователи предупреждают, что у людей сейчас нет необходимых средств защиты, чтобы предотвратить выход ИИ из-под контроля. Более того, угроза обмана со стороны искусственного интеллекта будет только увеличиваться по мере развития технологий.
Сейчас существуют четыре типа социальных рисков:
- стойкие ложные убеждения, поскольку ИИ усиливает заблуждения,
- политическую поляризацию,
- ослабление, которое заставляет людей давать ИИ больше власти,
- также гнусные управленческие решения, если ИИ наделен управленческими способностями внутри страны или компании.
Также "Телеграф" рассказывал о том, что Украина захватила Уралпо мнению искусственного интеллекта. В сети посмеялись.