У соцмережах почастішали випадки шахрайської реклами з дипфейковими відео, створених за допомогою штучного інтелекту. Образами для дипфейків обирають відомих публічних осіб: жертвами дипфейків з початку жовтня став голлівудський актор Том Хенкс, ютубер, який має найбільше підписників у світі, MrBeast та двоє телеведучих ВВС Меттью Амролівала та Саллі Бандок.
Зокрема, 2 жовтня Том Хенкс в інстаграмі опублікував попередження, що він не давав дозволу та не має жодного відношення до використання його образу в рекламі стоматологічних послуг, яку почали активно поширювати.
Актор висловив своє занепокоєння щодо використання штучного інтелекту в індустрії й наголосив на проблемі цифрових копій акторів. Раніше Хенкс уже заявляв, що штучний інтелект і діпфейки створюють мистецькі та юридичні проблеми.
Зірка Ютубу MrBeast, справжнє ім’я якого Джиммі Дональдсон, 3 жовтня поскажився на шахрайську рекламу у тіктоку, в якій використали його ШІ-версію. У ролику йшлося про те, нібито MrBeast, відомий розіграшами та роздачами подарунків, збирається провести масову роздачу нових iPhone 15 за 2 долари.
«Багато людей отримують цю фальшиву шахрайську рекламу з моїм зображенням… Чи готові соціальні медіа-платформи впоратися зі зростанням кількості фальшивих оголошень зі штучним інтелектом? Це серйозна проблема», – написав він у соцмережі Х з цього приводу.
Тим часом образи зірок BBC Меттью Амролівала та Саллі Бандок були використані для шахрайського просування у фейсбуці можливості інвестувати у криптовалюти. відомого шахрайства. На відео журналісти нібито «представляють» Ілона Маска, мільярдера, власника X, та рекламуть можливість для інвестицій в криптовалюту, повідомила редакція видання.
Представники тіктоку та фейсбука повідомили BBC, що видалили відео з дипфейками та заблокували шахрайські акаунти.
Нагадаємо, результати дослідження, проведеного грурою науковців під керівництвом ддокторанта Цюрихського університету Джованні Спітале, засвідчило, що люди вважають твіти, згенеровані штучним інтелектом, більш переконливими, ніж створені людьми. У процесі дослідження виявилося, що люди краще розпізнавали дезінформацію, створену людьми, ніж згенеровану мовною моделлю.
На фото: дипфейк із ютубером MrBeast
Фото: MrBeast/ твіттер
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.