Ведущие компании в области искусственного интеллекта планируют подписать соглашение, которое обяжет разработать технологию для идентификации, маркировки и контроля изображений, видео и аудиозаписей, созданных ИИ, имеющих целью ввести в заблуждение избирателей накануне решающих выборов во многих странах в этом году.
Согласно копии, полученной The Washington Post, соглашение, разработанное Google, Microsoft, Meta, OpenAI, Adobe и TikTok, все же не запрещает фейковый политический ИИ-контент. X (Twitter) не станет подписантом соглашения, однако оно будет открыто для подписания всеми желающими компаниями.
Документ является манифестом, в котором декларируется, что созданный ИИ контент, значительная часть которого создается с помощью инструментов компаний-участников и размещается на их платформах, действительно представляет риск для честных выборов. В ней описаны шаги, которые направлены на смягчение этого риска: например, маркировку вероятного содержания ИИ и информирование общественности об опасности ИИ.
«Умышленное и нераскрытое создание и распространение обманчивого ИИ-контента по теме выборов может вводить общественность [в заблуждение] способом, который ставит под угрозу целостность избирательных процессов», — говорится в соглашении.
Изображения, созданные искусственным интеллектом, или дипфейки, существуют уже несколько лет. Но за последний год их качество значительно быстро улучшилось – некоторые поддельные видео, изображения и аудиозаписи трудно отличить от настоящих. Инструменты для их изготовления теперь широко доступны, что значительно облегчает их изготовление.
Контент, созданный искусственным интеллектом, уже появился во время избирательных кампаний по всему миру. Рекламная кампания в поддержку бывшего кандидата в президенты США от Республиканской партии Рона Десантиса использовала искусственный интеллект для имитации голоса бывшего президента Дональда Трампа. В Пакистане кандидат в президенты Имран Хан использовал искусственный интеллект для выступлений из тюрьмы. В январе автоматический звонок, якобы от президента Байдена, призвал людей не голосовать на праймериз в Нью-Гэмпшире.
Технические компании испытали давление со стороны регуляторов, исследователей искусственного интеллекта и политических активистов с требованием сдержать распространение фейкового избирательного контента. Новое соглашение похоже на добровольное обязательство компаний, подписанное в июле после встречи в Белом доме, где они обязались пытаться идентифицировать и обозначать поддельное содержание ИИ на своих сайтах. В новом соглашении компании также обязуются обучать пользователей обманчивому содержимому, созданному с помощью искусственного интеллекта и быть прозрачными в собственных усилиях по обнаружению дипфейков.
Технологические компании тоже уже имеют собственные нормы по политическому контенту, созданному ИИ. TikTok не разрешает фальшивый ИИ-контент при «участии» публичных деятелей, если он используется для политической или коммерческой поддержки. Meta, материнская компания Facebook и Instagram, требует от политических рекламодателей сообщать, используют ли они ИИ в рекламе на своих платформах. YouTube требует от создателей обозначать созданный искусственным интеллектом контент, который выглядит реалистично.
Однако попытки построить широкую систему, в которой содержание искусственного интеллекта идентифицируется и сказывается в социальных сетях, пока не увенчались успехом. Google продемонстрировал технологию водяных знаков, но не требует от своих клиентов ее использования. Компания Adobe, владелец Photoshop, позиционирует себя как лидера в сдерживании ИИ-контента, но недавно ее база стоковых фотографий содержала фейковые изображения войны в Газе.