Использование искусственного интеллекта повышает уровень неэтичного поведения — исследования
Использование искусственного интеллекта повышает уровень неэтичного поведения — исследования
Ученые обнаружили, что использование искусственного интеллекта может способствовать росту неэтичного поведения. По словам авторов исследования, технология создает "удобную моральную дистанцию" между человеком и его действиями, что облегчает принятие сомнительных решений, передает Futurism.
"Использование искусственного интеллекта может побудить людей требовать поведения, на которое они сами бы не решились, и которое не стали бы ожидать от других", — объяснила Зои Рахван, ученая из Института развития человека имени Макса Планка в Берлине и одна из соавторов работы.
Исследовательская группа провела 13 экспериментов с участием более 8 тысяч человек, чтобы оценить уровень честности при взаимодействии с искусственным интеллектом. В одном из тестов, опубликованных в журнале Nature, участники бросали кубики, а от числа на них зависело денежное вознаграждение. Когда результаты сообщали напрямую, 95% участников действовали честно. Но когда для этого привлекался искусственный интеллект, показатель честности снижался до 75%.
Этика ухудшалась еще больше, если люди могли влиять на модель искусственного интеллекта. Например, настраивая ее на точность или максимизацию прибыли, 84% участников выбирали вариант, обеспечивающий больший доход, даже ценой ложных результатов.
В другом эксперименте люди должны были сообщить о налогооблагаемом доходе в смоделированной ситуации. Исследование показало, что при использовании искусственного интеллекта они чаще подавали ложные данные, чем при самостоятельной отчетности.
"Наши результаты показывают, что люди чаще будут требовать неэтичного поведения от машин, чем сами прибегать к такому же неэтичному поведению", — говорится в исследовании.
Авторы подчеркивают, что результаты исследования, выявившие откровенное мошенничество, должны стать тревожным сигналом для каждого, кто использует искусственный интеллект в школах или на работе. Эта технология стремительно интегрируется в нашу жизнь, и по словам исследователей, если ее настоящее применение соответствует этим данным, нас могут ждать большие неприятности.
"Мы только начинаем интеграцию этой технологии, и если выявленные закономерности подтвердятся в реальном мире, нас могут ждать серьезные проблемы", — отметил Ияд Рахван, соавтор исследования и директор Центра людей и машин в Макса Планка.
Он отметил необходимость быстрого развития технических предохранителей и регуляторных механизмов. Также важно осознание обществом последствий совместной моральной ответственности с алгоритмами.
По результатам другого исследования, проведенного Институтом будущей жизни (FLI), ведущие технологические компании, разрабатывающие искусственный интеллект, не имеют четких планов по реагированию на потенциальные угрозы, связанные с созданием сверхразумных систем. Отчет оценил их готовность как крайне низкую, подчеркнув, что ни одна из компаний не достигла достаточного уровня безопасности для управления системами, которые могут выйти из-под контроля.