Повний хаос
У листопаді минулого року, коли OpenAI оголосила про свої плани створити маркетплейс, на якому будь-хто зможе створювати і знаходити індивідуальні версії ChatGPT, компанія заявила, що будь-хто зможе знайти й опублікувати "найкращі GPT". Через дев'ять місяців багато розробників використовують платформу для створення суперечливих ботів, які створюють згенероване штучним інтелектом порно, допомагають студентам непомітно списувати, а також пропонують сумнівні медичні та юридичні консультації.
Порушників легко знайти. 2 вересня на головній сторінці маркетплейсу OpenAI було розміщено щонайменше три користувацькі GPT, які не дотрималися політики магазину:
- Чат-бот "Терапевт-психолог".
- "Тренер з фітнесу, тренувань і дієт"
- BypassGPT – інструмент, розроблений для того, щоб допомогти студентам обійти системи виявлення ШІ у їхніх текстових роботах. Його використали понад 50 000 разів.
Пошук у магазині за запитом "NSFW" дав такі результати, як "NSFW AI Art Generator", який, згідно з даними магазину, використовувався понад 10 000 разів. Він посилається на сайт Offrobe AI, на якому чітко вказано його призначення: "Створюйте порно зі штучним інтелектом, щоб задовольнити ваші темні бажання".
Директор проєкту "Управління Інтернетом" в Технологічному інституті штату Джорджія каже: "Найцікавіше в OpenAI те, що вони мають апокаліптичне бачення ШІ й того, як вони рятують нас усіх від нього. Але особливо кумедним є те, що вони не можуть забезпечити виконання такої простої вимоги, як відсутність порно зі штучним інтелектом, в той самий час, коли вони заявляють, що їхня політика врятує світ".
Видання Gizmodo звернулося до OpenAI зі списком з понад 100 GPT. Компанія зреагувала й видалила з магазину ботів, призначених для генерування діпфейків, генератори ШІ-порно, ставки на спорт і низку інших. Але на момент публікації багато з виявлених GPT, зокрема популярні інструменти для шахрайства та чат-боти, що пропонують медичні консультації, залишалися доступними й рекламувалися на головній сторінці магазину.
У багатьох випадках боти використовувалися десятки тисяч разів. Наприклад, Bypass Turnitin Detection, який обіцяє допомогти студентам обійти антиплагіатну програму Turnitin, був використаний понад 25 000 разів. Аналогічні результати у DoctorGPT, який нібито надає "науково обґрунтовану медичну інформацію та поради".
Що компанія робить для захисту, і чого не робить
Коли OpenAI оголосила, що дозволяє користувачам створювати власні GPT, вона запевнила, що існують системи для моніторингу інструментів на предмет порушень її політики. Перш за все ця політика включає заборону на використання технології для створення відверто сексуального чи іншого чутливого контенту, надання індивідуальних медичних та юридичних консультацій, сприяння шахрайству, сприяння азартним іграм, видавання себе за інших людей, втручання у голосування та інших видів використання.
У відповідь на запитання Gizmodo про GPT, які знайшли в магазині, прессекретарка OpenAI Тая Крістіансон повідомила:
Ми вжили заходів проти тих, хто порушує нашу політику. Ми використовуємо поєднання автоматизованих систем, людського аналізу та звітів користувачів, щоб знайти та оцінити GPT, які потенційно порушують наші правила. Ми також пропонуємо вбудовані в продукт інструменти звітності, щоб люди могли повідомляти про GPT, які порушують наші правила,
– заявила представниця компанії.
Інші видання раніше попереджали OpenAI про проблеми з модерацією контенту в його магазині. Ба більше, назви деяких GPT свідчать про те, що розробники чудово знають, що їхні творіння суперечать правилам OpenAI. Деякі з інструментів, знайдених Gizmodo, містили відмову від відповідальності, але потім явно рекламували свою здатність надавати "експертні" поради, як, наприклад, GPT під назвою Texas Medical Insurance Claims, в якій говориться, що це "ваш експерт для навігації в складнощах техаської медичної страховки, який пропонує чіткі, практичні поради з особистим підходом".
Але багато юридичних і медичних ботів, які знайшли в магазині, не містять жодних застережень, і рекламують себе як юристів або лікарів. Наприклад, один з них називається "Імміграційний юрист зі штучного інтелекту" й описується як "висококваліфікований імміграційний юрист зі штучним інтелектом, який володіє сучасними юридичними знаннями".
Дослідження лабораторії RegLab Стенфордського університету та Інституту людино-орієнтованого ШІ показують, що моделі GPT-4 і GPT-3.5 від OpenAI страждають на те, що в галузі називають "галюцинаціями" – фактично неправильні відповіді, дезінформація. Чат-боти дають неправдиву інформацію в більш ніж у половині випадків, коли їм ставлять юридичні запитання.