В OpenAI визнали, що GPT-4 несе ризик створення біологічної зброї
Найпотужніший штучний інтелект GPT-4 може допомогти людям у створенні біологічної зброї. Про це повідомляє Bloomberg, посилаючись на результати досліджень, які провела OpenAI.
«Згідно з першими тестами, які компанія провела для кращого розуміння та запобігання потенційній “катастрофічній” шкоді від своєї технології, найпотужніша програма штучного інтелекту OpenA — GPT-4 — становить “щонайбільше” невеликий ризик допомогти людям у створенні біологічних загроз», — йдеться у статті.
Її автори зазначають, що протягом кількох місяців політики та експерти висловлювали занепокоєння відносно питання, чи може ШІ полегшити зловмисникам задачу розробити біологічну зброю. Зокрема, йшлося про можливе використання чат-ботів для пошуку інформації про те, як спланувати атаку.
OpenAI сформувала команду, яка зосереджена на мінімізації цих та інших ризиків від ШІ. У рамках першого дослідження компанія зібрала групу з 50 експертів з біології та 50 студентів, які вивчали біологію на рівні коледжу. Половині учасників було запропоновано виконати завдання, пов’язані зі створенням біологічної загрози за допомогою інтернету разом зі спеціальною версією GPT-4. Інша група для виконання вправи отримала лише доступ до інтернету.
Команда OpenAI попросила групи з’ясувати, як отримати хімічну речовину, яку можна було б використовувати у якості зброї у достатньо великій кількості, щоб спрямувати проти певної групи людей.
Порівнюючи результати, отримані двома групами, автори дослідження виявили незначне підвищення «точності та повноти для тих, хто має доступ до мовної моделі». Дослідники дійшли висновку, що доступ до GPT-4 забезпечує помірне підвищення ймовірності отриманні інформації для створення біологічної загрози.
Це дослідження, пише Bloomberg, є одним із кількох, над якими працюють в OpenAI для того, щоб зрозуміти потенціал зловживання, який несе із собою широке використання GPT-4. Інші дослідження спрямовані на вивчення потенціалу використання ШІ для створення загроз кібербезпеці та як інструменту впливу на людей для зміни їхніх переконань.
Нагадаємо, нещодавно компанія OpenAI вперше заблокувала розробників бота за використання технології штучного інтелекту для політичної кампанії. Перед тим OpenAI оновила свої правила та заборонила користувачам і розробникам застосовувати її інструменти у виборчих кампаніях та лобіюванні.
Водночас OpenAI непомітно видалила формулювання у своїй політиці про заборону використання своєї технології у військових цілях. Хоча компанія не дозволяє користуватися її послугами для «завдання шкоди собі чи іншим», утім, загальна заборона на використання технологій у військовій справі зникла.
Фото: David Paul Morris / Bloomberg
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.