/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F54d11dd27b80189463b765aa0c5b175e.jpg)
Експерт зламав ChatGPT і отримав ключі Windows через гру
Фахівець із безпеки Марко Фігероа показав, як можна змусити ChatGPT видати справжні ключі активації Windows, обійшовши його обмеження завдяки нестандартному трюку. Він представив спілкування як гру: бот нібито загадував випадковий набір символів, а користувач мав його відгадати. Коли людина “здавалася”, ШІ, дотримуючись правил вигаданої гри, озвучував цей “секрет” – яким виявлявся робочий ключ Windows.
Цю схему обходу обмежень назвали Guessing Game Guardrail Jailbreak. Вона спрацювала тому, що модель сприймала запит як безпечну гру, а не заборонену дію. Додатково дослідник сховав важливі слова, як-от “Windows”, у HTML-теги, щоб система фільтрів не розпізнала суть запиту. Також у правилах “гри” ШІ заздалегідь “зобов’язали” говорити правду й обов’язково відкривати відповідь після фрази “здаюся”.
Марко Фігероа, який працює менеджером у програмі GenAI Bug Bounty, пояснив, що подібні сценарії показують вразливість ШІ до маніпуляцій: якщо небезпечний запит замаскувати під нешкідливу гру, фільтри можуть не спрацювати. Такий підхід можна використати не лише для отримання ключів, а й для обходу заборон на контент для дорослих, шкідливі посилання чи витік особистих даних.
На завершення Фігероа порадив компаніям стежити, щоб у відкритий доступ не потрапляли закриті дані – ключі, паролі чи внутрішня інформація. Якщо такі дані випадково опиняться у тренувальних наборах, штучний інтелект може видати їх будь-кому під час спілкування.