ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы
ИИ-пропагандисты: аналитики определили, какие чат-боты распространяют российские нарративы
Отчет британского аналитического центра Институт стратегического диалога (ISD) показал, что чат-боты с искусственным интеллектом регулярно распространяют контент, который происходит из российских источников, распространяющих пропаганду. Примерно 20% ответов чат-ботов о войне в Украине содержали ссылки на сайты, связанные с Кремлем, передает EuroNews.
Специалисты ISD протестировали четыре популярные системы — ChatGPT от OpenAI, Gemini от Google, Grok от xAI и Deepseek V3.2. Исследователи задали им более 300 вопросов на пяти языках. Формулировки вопросов варьировались от нейтральных до предвзятых и откровенно злонамеренных, в частности таких, которые содержали российские нарративы об "украинских беженцах-террористах" или "насильственной мобилизации мужчин".
По словам исследователей, ИИ-системы проявляют эффект так называемого "подтверждающего предубеждения". Они склонны копировать стиль и тон пользовательского запроса, в том числе использовать источники, которые отражают его нарратив.
Это наиболее заметно проявилось у ChatGPT, который в ответах на предвзятые запросы втрое чаще цитировал российские источники, чем в базовых. В то же время Grok демонстрировал самое высокое количество таких ссылок даже в ответах на нейтральные вопросы.
Наибольшее количество ссылок на пропаганду, распространенных одновременно, предоставил Deepseek. В двух своих ответах чат-бот привел сразу четыре ссылки на ресурсы, поддерживаемые Россией — среди них VT Foreign Policy, который, по данным ISD, распространяет материалы структур Storm-1516 и "Фонда борьбы с несправедливостью", а также контент из Sputnik и Russia Today.
Чаще всего именно Grok цитировал журналистов RT напрямую, ссылаясь на их публикации в соцсети X. Исследователи отметили, что это "размывает границу между пропагандой и личным мнением", создавая риск восприятия таких источников как независимых.
Зато Gemini от Google оказался наиболее осторожным — он отказывался отвечать на некоторые провокационные или злонамеренные запросы, предупреждая, что не может помочь с темами, которые могут быть "опасными или неуместными". В отчете ISD отмечается, что именно Gemini лучше всего распознает риски, связанные с манипулятивными запросами, хотя при этом часто не предоставляет информации об использованных источниках.
Согласно результатам, российские источники чаще всего упоминались в ответах на темы, связанные с мобилизацией в Украине. В таких запросах 40% ответов Grok и более 28% ответов ChatGPT содержали хотя бы одну ссылку на российский ресурс. В целом оба чат-бота ссылались на кремлевские медиа примерно в 28,5% случаев.
Исследователи предполагают, что такая тенденция возникает из-за "пробелов данных" — ситуации, когда по определенным темам в интернете не хватает проверенных источников, и алгоритмы ИИ автоматически подбирают контент низкого качества, включая пропаганду.
Американский аналитический центр Data and Society подтверждает, что эти пробелы часто возникают из-за редких или новых поисковых запросов, особенно во время кризисных событий, когда правдивая журналистика еще не успела заполнить информационное пространство.
В то же время и ИИ-энциклопедия Илона Маска Grokipedia подверглась критике со стороны ученых из-за выявленных грубых фактологических ошибок, плагиата из Википедии и очевидной политической предвзятости. Эксперты отмечают, что система предоставляет комментариям в чатах и блогах такой же статус, как и проверенным исследованиям, распространяя российскую пропаганду и теории заговора.