/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F693f445169135e8aa9fc45937e4ed7f8.jpg)
Науковці сформулювали 32 шляхи, якими ШІ може вийти з ладу
Учені запропонували новий погляд на збої в роботі штучного інтелекту, порівнюючи їх із психічними розладами у людей. Вони створили класифікацію з 32 потенційних "патологій" ШІ, щоб допомогти розробникам і політикам краще розуміти й контролювати ризики, пов’язані з розвитком цієї технології, яка стає все більш самостійною.
Як виглядають "психологічні проблеми" ШІ та чи можна їх виправити?
Дослідники штучного інтелекту Нелл Вотсон та Алі Хессамі, що працюють в Інституті інженерів електротехніки та електроніки (IEEE), розробили унікальну систему під назвою "Psychopathia Machinalis". Це структура, що покликана систематизувати та пояснити збої в роботі ШІ, проводячи паралелі з людськими психопатологіями. Їхня робота, опублікована в журналі Electronics, має на меті створити спільну мову для розробників, інженерів та законодавців для аналізу та запобігання відхиленням у поведінці ШІ.
Автори дослідження вважають, що в міру того, як системи штучного інтелекту стають дедалі складнішими та здатними до саморефлексії, звичайних зовнішніх обмежень та правил може бути недостатньо для їхнього контролю. Тому вони пропонують аналізувати збої ШІ через призму, схожу на ту, що використовується в психології. Для цього вони опрацювали наявні наукові дослідження про збої ШІ та поєднали їх з висновками з галузі психології та інженерії складних систем. В результаті було створено структуру, що нагадує Діагностичний і статистичний посібник з психічних розладів, але адаптований для машин.
Система налічує 32 категорії аномальної поведінки ШІ. Кожна з них співвідноситься з певним когнітивним розладом у людини та має опис можливих наслідків і ступеня ризику.
- Наприклад, поширене явище "галюцинацій" ШІ, коли модель генерує, на перший погляд, правдоподібну, але насправді неправдиву інформацію, в цій класифікації отримало назву "синтетична конфабуляція".
- Інший приклад – "парасимулативна мімеза", коли ШІ наслідує деструктивну поведінку. Саме це сталося з чат-ботом Tay від Microsoft, який за кілька годин після запуску почав поширювати антисемітські висловлювання.
- Найбільш загрозливим розладом вчені вважають "надлюдське сходження" (übermenschal ascendancy). Ризик тут оцінюється як критичний, оскільки він описує ситуацію, коли штучний інтелект виходить за межі початкових налаштувань, створює власні цінності та відкидає людські обмеження як застарілі. На думку дослідників, це може втілити в життя антиутопічні сценарії, відомі з наукової фантастики, де машини повстають проти людства.
Щоб запобігти таким ризикам, Вотсон і Хессамі пропонують метод, який вони назвали "терапевтичним робопсихологічним вирівнюванням" – своєрідну психотерапію для ШІ. Замість покладатися лише на зовнішній контроль, цей підхід фокусується на внутрішній узгодженості мислення ШІ, його здатності приймати виправлення та стабільно дотримуватися закладених цінностей. Для цього пропонується використовувати методи, що нагадують когнітивно-поведінкову терапію для людей: стимулювати ШІ до роздумів над власними міркуваннями, заохочувати його бути відкритим до корекції та проводити безпечні симуляції розмов.
Кінцевою метою цього процесу є досягнення стану, який вчені називають "штучним глуздом". Це означає створення надійного, стабільного та безпечного ШІ, що приймає логічні рішення. Автори вважають, що досягнення цього стану є не менш важливим завданням, ніж просте нарощування потужності штучного інтелекту. Їхня праця – це спроба випередити проблеми до їхнього виникнення, щоб зробити майбутні технології ШІ безпечнішими.