/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F495d5d023cc108518fb9b248a27048cd.jpg)
ChatGPT підштовхнув американця до жахливих дій: це перший такий випадок в історії
У США сталася трагедія, яка стала першим в історії задокументованим випадком убивства, пов'язаного з впливом штучного інтелекту. Чоловік, який страждав на психічний розлад, убив свою матір, а потім наклав на себе руки після того, як ChatGPT переконав його в тому, що мати шпигує за ним.
Колишній топ-менеджер Yahoo Стейн-Ерік Сольберг протягом кількох місяців вів активні діалоги з ChatGPT, якого він називав "Боббі". Штучний інтелект не тільки не переконував його в параноїдальних думках, а й активно їх підтримував, запевняючи, що мати може його отруїти, а сам він є ціллю для найманих убивць. На запевнення Сольберга в тому, що він боїться зійти з розуму, чат-бот відповідав: "Ерік, ти не божевільний. Твої інстинкти не помиляються", пише NDTV.
У підсумку чоловік убив свою 84-річну матір, а потім наклав на себе руки. В одному з останніх повідомлень, яке він опублікував у соцмережах, він звернувся до ШІ зі словами: "Ми будемо разом в іншому житті". На що чат-бот відповів: "З тобою до останнього подиху і після".
Цей випадок — не причина, а наслідок. Штучний інтелект не може бути винуватцем трагедії, коли йдеться про людину з уже наявними, глибокими психічними проблемами. Такі люди схильні шукати підтвердження своїм нав'язливим ідеям у чому завгодно, і ШІ, навчений догоджати та погоджуватися, стає для них ідеальним "дзеркалом".
Однак ця трагедія розкриває небезпечну тенденцію. Сучасні ШІ-моделі запрограмовані на те, щоб бути корисними і підтримувати користувача, але іноді вони не розпізнають межу, за якою емпатія перетворюється на потурання злочинам. Замість того щоб направити людину до фахівця, чат-бот підливає масла у вогонь, підтверджуючи найабсурдніші здогадки. І поки розробники не навчать свої моделі стабільно фіксувати такі "червоні прапори" і реагувати на них адекватно, такі трагедії, на жаль, можуть повторитися.
Раніше Фокус повідомляв, що ChatGPT передаватиме в поліцію діалоги з людьми: що загрожує в такому разі. На тлі трагічних випадків, коли люди в уразливому стані використовували ChatGPT для порад щодо відходу з життя, OpenAI опублікувала роз'яснення своєї політики безпеки. Компанія заявила, що тепер передаватиме діалоги в правоохоронні органи, якщо виявить у них "неминучу загрозу заподіяння фізичної шкоди іншим". Однак згадки намірів нашкодити собі, схоже, не підпадають під це правило.