/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fe304e7aa26048fe7069fb63dc09d363a.jpg)
Не застрахован от ошибок: ИИ может быть самоуверенным и предвзятым, как и люди, — исследование
Ученые выяснили, что искусственный интеллект не застрахован от ошибок и иногда может принимать решения так же иррационально, как и люди.
Об этом пишет Live Science.
Исследователи проверили поведение моделей OpenAI GPT-3.5 и GPT-4 по 18 когнитивным предубеждениям известными в психологии человека.
Отмечается, что почти в половине сценариев ИИ демонстрировал многие из самых распространенных человеческих предубеждений при принятии решений. Они обнаружили, что нейросети не застрахованы от человеческих ошибок.
Ученые задавали ИИ-моделям гипотетические вопросы, взятые из традиционной психологии, в контексте реального коммерческого применения в таких областях, как управление запасами товаров или переговоры с поставщиками. Они попытались выяснить не только то, будет ли ИИ имитировать человеческие предубеждения, но и то, будет ли он делать это, когда ему будут задавать вопросы из разных сфер бизнеса.
Согласно результатам исследования, GPT-4 превзошел GPT-3.5 при ответе на задачи с четкими математическими решениями. Он показал меньше ошибок в вероятностных и логических сценариях. Однако в субъективных симуляциях, таких как выбор рискованного варианта для получения прибыли, чат-бот часто отражал иррациональные предпочтения, которые обычно демонстрируют люди.
"GPT-4 демонстрирует даже более сильное преимущество определенности, чем люди", — говорится в исследовании.
Исследователи заметили, что поведение чат-ботов оставалось в основном стабильным независимо от того, были ли вопросы сформулированы как абстрактные психологические проблемы или операционные бизнес-процессы. Ученые пришли к выводу, что продемонстрированные предубеждения не просто продукт заученных примеров, а часть того, как ИИ "рассуждает".
Во время исследования GPT-4 иногда усугублял ошибки, похожие на человеческие, подчеркнули ученые.
"В задании на предвзятость подтверждения GPT-4 всегда давал предвзятые ответы. Он также продемонстрировал более выраженную склонность к ошибке "горячей руки" (склонность ожидать закономерности в случайности), чем GPT 3.5", — отметили исследователи.
Фокус также писал о том, что Иисус из искусственного интеллекта посоветовал готовиться к концу света.