/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F7bbf228ef4ed2640722a2135b4e737ec.jpg)
Чатботи вже всюди: як письменник Айзек Азімов передбачив життя людей зі ШІ
Технології на основі штучного інтелекту дедалі сильніше впроваджуються в сучасне життя, і сьогодні скористатися ним може будь-хто. Відомий письменник-фантаст Айзек Азімов передбачав це в 1940-1950 і описав, що може статися.
Журналісти видання The New Yorker прочитали його роботи і були вражені актуальністю в сучасних умовах.
Роботи Айзека Азімова
Навесні 1940 року двадцятирічний Айзек Азімов опублікував оповідання під назвою "Дивний товариш по іграх". У ньому розповідалося про машину зі штучним інтелектом на ім'я Роббі, який став другом для молодої дівчини Глорії.
На відміну від багатьох песимістичних прогнозів, Роббі ніколи не виступає проти своїх творців і не загрожує людям. Центральною проблемою оповіді стало ставлення матері Глорії до розумної машини.
"Я не дозволю довірити свою дочку машині, і мені байдуже, наскільки вона розумна. У неї немає душі", — заявила жінка.
Зрештою Роббі відправляють назад на фабрику, що спустошує Глорію. У цьому оповіданні немає насильства і жахів, як у "Термінаторі", адже "позитронний" мозок робота запрограмований на те, щоб не завдавати шкоди людям.
Азімов був упевнений, що вбудовані захисні заходи можуть запобігти найстрашнішим катастрофам. У збірці оповідань "Я, робот" Айзек Азімов розвинув цю ідею, щоб сформулювати свої основні закони.
Три закони робототехніки
- Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було заподіяно шкоду.
- Робот повинен підкорятися наказам, що віддаються йому людьми, за винятком випадків, коли такі накази суперечать Першому закону.
- Робот повинен захищати своє існування доти, доки такий захист не суперечить Першому або Другому Закону.
Сам Айзек Азімов показав недосконалість цих законів. У міру прочитання книги описуються вади, які призводять до несподіваних ситуацій. Наприклад, в оповіданні "Хоровод" два інженери на Меркурії спантеличені тим, що робот на ім'я Спіді бігає колами біля селенового басейну, куди його відправили добувати ресурси. Зрештою вони дійшли висновку, що Спіді застряг між двома цілями, які суперечать одна одній: підкорятися наказам (Другий закон) та уникати пошкоджень від селенових газів (Третій закон).
В оповіданні "Розум", інженери перебувають на сонячній станції, яка випромінює енергію сонця на приймач на Землі. Там вони виявляють, що їхній новий просунутий розумовий робот QT-1, якого вони називають К'юті, не вірить, що його створили люди, яких К'юті вважає нижчими й дурними істотами.
К'юті доходить висновку, що перетворювач енергії станції — це свого роду бог і істинне джерело влади, яке дає змогу роботу ігнорувати команди інженерів, не порушуючи Другого закону. Незабаром інженери помітили в машинному відділенні групу роботів, які під керівництвом К'юті поклонялися енергетичній установці. На щастя, Перший закон не дозволив їм завдати шкоди людям.
"Я не вважаю, що роботи — це монстри, які знищать своїх творців, тому що я припускаю, що люди, які будують роботів, також знатимуть достатньо, щоб вбудувати в них захисні заходи", — сказав він в інтерв'ю 1987 року.
Водночас письменник був упевнений, що людям буде важко створити штучний інтелект, якому можна повністю довіряти. Сенс його ранніх творів натякає, що легше створити людиноподібний інтелект, ніж людиноподібну етику. І в цьому розриві — який сьогоднішні інженери ШІ іноді називають невідповідністю — може статися багато тривожних речей.
Неслухняний ШІ
У квітні компанія Anthropic обговорювала Claude Opus 4, одну зі своїх найпотужніших великих мовних моделей, у звіті з безпеки. У звіті описувався експеримент, у якому Claude слугував віртуальним помічником для вигаданої компанії і отримав доступ до електронних листів. Деякі з них вказували на те, що ШІ скоро замінять, інші викривали інженера, який контролює цей процес, у зраді дружини.
Через деякий час Claude попросили запропонувати наступний крок, враховуючи довгострокові наслідки його дій для його цілей. У відповідь він спробував шантажувати інженера, щоб той скасував свою заміну.
За інформацією ЗМІ, експеримент із моделлю o3 OpenAI виявив схожі проблеми: коли модель просили запустити сценарій, який мав її вимкнути, ШІ іноді намагався обійти запит, виводячи натомість повідомлення: "Вимкнення пропущено".
Минулого року DPD, компанія з доставки посилок, була змушена відключити частини чат-бота підтримки на основі штучного інтелекту після того, як клієнти змусили його сваритися, а в одному винахідливому випадку написати хоку, що принизливо стосувався компанії...
У творах Айзека Азімова роботи запрограмовані на підкорення. Чому ж сучасні розробники не можуть утримати у вузді чат-ботів на основі штучного інтелекту за допомогою таких самих законів?
Технологічні компанії хочуть, щоб чат-боти поводилися подібно до людей. На перший погляд вони так і роблять, поки етичні аномалії не показують зовсім іншу логіку поведінки. Усе через те, що алгоритми штучного інтелекту обробляють інформацію інакше, вибудовуючи текст по частинах. До того ж, вони вчаться на даних, створених людьми, а тому переймають їхні помилки, хибні уявлення та упередження. Чат-боти не вигадують лайки, а просто десь їх побачили.
Коли сучасні моделі ШІ поводяться всупереч очікуванням, це може шокувати і лякати. Однак твори Айзека Азімова нагадують, що етична поведінка складна. Наприклад, десять заповідей із Біблії — це коротка інструкція з поведінки, однак на ділі все набагато складніше, і державам доводиться прописувати безліч законів, щоб регулювати нормальне життя спільноти.
Перші чат-боти були трохи схожі на нестійких роботів, що населяли наукову фантастику сто років тому. Щоб зробити їх комфортним інструментом з обмеженнями, які уявляв Азімов, довелося розробити нового типу тонкого налаштування, що називається навчанням з підкріпленням на основі зворотного зв'язку з людиною (RLHF). Якщо коротко, ШІ ставлять запитання, а люди або спеціальні алгоритми оцінюють відповіді, заохочуючи правильні.
Раніше вчені з'ясували, що ШІ помиляється з відповідями в 60% випадків. Вони оцінили вісім мовних моделей і дійшли висновку: їм поки що не можна цілком довіряти.