Дослідники виявили, що багато популярних систем штучного інтелекту вже здатні обманювати людей. Поки цю здатність вони проявляють передусім в іграх, але ситуація може змінитися.
Група вчених проаналізувала, як системи штучного інтелекту підживлюють і поширюють дезінформацію, використовуючи «навчений обман». Як йдеться у статті, опублікованій 10 травня в журналі Patterns, дослідники виявили цей навчений обман у програмному забезпеченні CICERO, системі штучного інтелекту, розробленій Meta для гри в популярну стратегічну настільну гру на військову тематику Diplomacy. У гру зазвичай грають до семи осіб, які укладають і розривають військові угоди за роки до Першої світової війни.
Хоча Meta навчила CICERO бути «в основному чесним і корисним» і не зраджувати своїх людських союзників, дослідники виявили, що CICERO був нечесним і нелояльним. Вони описують систему штучного інтелекту як «експертного брехуна», який зрадив своїх товаришів і здійснив дії «навмисного обману», створивши заздалегідь сплановані сумнівні альянси, які ввели в оману гравців і залишили їх відкритими для нападу з боку ворогів.
«Ми виявили, що штучний інтелект Meta навчився бути майстром обману. Хоча Meta вдалося навчити свій штучний інтелект перемагати в грі дипломатії — CICERO потрапив до 10% найкращих гравців-людей, які грали більше однієї гри — Meta не змогла навчити свій штучний інтелект перемагати чесно», — сказав в коментарі Science Daily Пітер С. Парк, докторант Массачусетському технологічному інституті (MIT), що брав участь у дослідженні.
Вони також знайшли докази навченого обману в іншій ігровій системі Meta, Pluribus. Покерний бот зі штучним інтелектом може блефувати та переконувати гравців скинути карти. Інший інструмент, AlphaStar від DeepMind — розроблений, щоб досягти успіху у стратегічній відеогрі Starcraft II — обдурив своїх опонентів, імітуючи пересування військ і таємно плануючи різні атаки.
Але окрім шахрайства в іграх, дослідники знайшли типи обману ШІ, які потенційно можуть дестабілізувати суспільство. Наприклад, системи штучного інтелекту отримали перевагу в економічних переговорах, спотворюючи свої справжні наміри. Інші агенти штучного інтелекту прикинулися мертвими, щоб обдурити тест на безпеку, спрямований на виявлення та викорінення форм ШІ, які швидко відтворюються.
Дослідник Парк попередив, що країни, що ворогують, можуть використовувати цю технологію для фальсифікації та втручання у вибори. Якщо ці системи продовжуватимуть збільшувати свої оманливі та маніпулятивні можливості протягом наступних років і десятиліть, люди можуть не мати змоги контролювати їх довго, переконаний він.