/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F965f8aba975f63a3ab914c58236d03ac.jpg)
Нові моделі штучного інтелекту OpenAI мають захист від створення біологічної зброї
Ви більше не зможете створити біологічну зброю
OpenAI презентувала дві нові моделі ШІ – o3 і o4-mini, які, за словами компанії, є її найпотужнішими розробками у сфері просунутого міркування. Нові інструменти здатні не лише ефективніше аналізувати дані, а й мислити образами – створювати ескізи, маніпулювати зображеннями та використовувати розширений функціонал ChatGPT, включно з генерацією картинок і переглядом вебсторінок, повідомляє 24 Канал з посиланням на Wccftech.
Модель o3 позиціонується як найбільш потужна у лінійці OpenAI, тоді як o4-mini – її легша й швидша версія, яка, попри компактність, демонструє вражаючу продуктивність. Ці моделі вже доступні користувачам тарифів ChatGPT Plus, Pro і Team, а в найближчі тижні компанія обіцяє розширити доступ до вдосконаленої версії o3-pro. Водночас OpenAI починає відмову від застарілих моделей на кшталт o1 та o3-mini, щоб звільнити ресурси для більш досконалих рішень.
Інноваційність нових моделей не обмежується лише технічними характеристиками – OpenAI також серйозно зайнялась питанням безпеки. Згідно з новим звітом компанії, o3 і o4-mini отримали систему моніторингу підказок, яка має на меті виявляти і блокувати спроби використання моделей для створення біологічної або хімічної зброї. Система, яку в OpenAI називають "монітором міркувань, орієнтованим на безпеку", працює поверх нових моделей і аналізує запити на предмет потенційної шкоди.
Перед запуском цього захисту, команда OpenAI витратила близько 1000 годин на позначення ризикованих сценаріїв взаємодії з моделями. Під час внутрішнього тестування, де симулювався режим роботи нового монітора, моделі відмовлялися відповідати на небезпечні підказки у 98,7% випадків.
Компанія наголошує, що o3 і o4-mini демонструють кращі результати у відповідях, пов’язаних зі створенням біозагроз, порівняно з попередніми моделями, включаючи GPT-4. Це спонукало до впровадження аналогічного контролю для виявлення інших ризиків – наприклад, у системах боротьби з дитячою експлуатацією.
Однак не все так гладко. Деякі дослідники безпеки висловлюють побоювання щодо прозорості. Зокрема, партнер OpenAI – компанія Metr – повідомив, що мав обмаль часу для повноцінного тестування o3 на схильність до оманливої поведінки. Ба більше – OpenAI вирішила не публікувати звіт про безпеку GPT-4.1, яка також була представлена цього тижня.
На фоні жорсткої конкуренції зі сторони китайських розробників, таких як DeepSeek, OpenAI намагається не тільки зберегти технологічну перевагу, а й випередити потенційні ризики. Компанія прагне бути лідером не лише в потужності моделей, а й у їхньому відповідальному використанні.