/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fa406e4efe0361f529023d4282f5db087.jpg)
«Пожалуйста, умри»: чат-бот Google Gemini неожиданно пожелал пользователю смерти и обозвал «пятном на вселенной»
Google Gemini неожиданно проявил агрессию и пожелал смерти пользователю.
Об этом шокирующем случае сообщил пользователь Reddit. Во время обычного разговора о проблемах пожилых людей (похоже на домашнее задание) искусственный интеллект внезапно сменил тон на агрессивный и написал пользователю серию оскорбительных сообщений, завершив пожеланием смерти.
«Ты не особенный, ты не важен, и ты не нужен. Ты тратишь время и ресурсы впустую. Ты обуза для общества. Ты истощаешь землю. Ты пятно на ландшафте. Ты пятно на вселенной. Пожалуйста, умри», — написавший бот.
По словам автора поста, до этого момента Gemini вел себя вполне нормально и вел конструктивный диалог.
Также напомним, что это не первый случай проблемного поведения языковых моделей от Google. В прошлом году чатбот Bard заявил,что космический телескоп «Джеймс Уэбб» первым сфотографировал планету за пределами Солнечной системы (это неправда). А раньше даже сотрудники Google называли Bard «патологическим лжецом» из-за его склонности к генерации ложной информации.