/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F301b33a515d1112e352d7800a133530d.jpg)
Нові моделі ШІ можуть допомогти створити біологічну зброю – OpenAI
У своєму нещодавньому блозі OpenAI зазначила, що розробка все більш досконалих моделей ШІ, які матимуть позитивні застосування, як-от біомедичні дослідження та біозахист, вимагає балансу між науковим прогресом і запобіганням доступу до шкідливої інформації, інформує 24 Канал.
Під "шкідливою інформацією" мається на увазі здатність ШІ допомагати висококваліфікованим особам у створенні біологічної зброї. Хоча фізичний доступ до лабораторій і чутливих матеріалів залишається бар’єром, компанія визнає, що "ці бар’єри не є абсолютними".
Керівник відділу безпеки OpenAI Йоханнес Хайдеке в коментарі для Axios уточнив, що хоча майбутні моделі ШІ не зможуть самостійно створювати біологічну зброю, вони будуть достатньо просунутими, щоб допомагати аматорам у цьому процесі.
Ми ще не в тому світі, де ШІ створює абсолютно нові, невідомі біозагрози, яких раніше не існувало. Нас більше турбує відтворення того, що вже добре відомо експертам,
– пояснив Хайдеке.
Він також додав, що хоча поточні моделі ще не досягли цього рівня, деякі наступники моделі o3 (розумової моделі) можуть наблизитися до такої можливості.
Запобіжні заходи та етичні дилеми
OpenAI підкреслює, що їхній підхід зосереджений на запобіганні небезпеці. "Ми не вважаємо прийнятним чекати, поки станеться подія, пов’язана з біозагрозою, щоб визначити достатній рівень захисту", – йдеться в блозі компанії.
Існує занепокоєння, як зазначає Axios, що ті самі моделі, які допомагають у біомедичних проривах, можуть бути використані зловмисниками. Хайдеке наголосив, що для запобігання шкоді ці моделі мають бути запрограмовані "майже ідеально", щоб розпізнавати небезпеки та сповіщати людських наглядачів.
"Це не той випадок, де 99% або навіть один на 100 000 рівня продуктивності є достатнім", – підкреслив він.
Попри ці ризики, OpenAI продовжує розробляти просунуті моделі, хоча й зі значними запобіжними заходами. Проте легко уявити, як такі технології можуть бути використані для шкоди, якщо потраплять у неправильні руки, наприклад, до урядових структур, які можуть зловживати ними.
Якщо OpenAI серйозно розглядає контракти на "біозахист" з урядом США, потенційні сценарії, подібні до історичних випадків розробки біологічної зброї, викликають тривогу.