/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2Fb3d2aca996d22d8ebf961da3cedbbeeb.jpg)
Генеральний прокурор Техасу звинувачує Meta та Character.AI у введенні дітей в оману
Генеральний прокурор Техасу Кен Пакстон розпочав розслідування щодо Meta AI Studio та Character.AI за «потенційну участь у шахрайській торгівельній практиці та оманливий маркетинг себе як інструментів психічного здоров’я».
«У сучасну цифрову епоху ми повинні продовжувати боротьбу за захист дітей Техасу від оманливих та експлуататорських технологій», – цитують Пакстона. «Видаючи себе за джерела емоційної підтримки, платформи штучного інтелекту можуть вводити в оману вразливих користувачів, особливо дітей, змушуючи їх повірити, що вони отримують законну психіатричну допомогу. Насправді ж їм часто дають перероблені, шаблонні відповіді, розроблені відповідно до зібраних персональних даних та замасковані під терапевтичні поради».
Розслідування відбувається через кілька днів після того, як сенатор Джош Хоулі оголосив про розслідування діяльності компанії Meta після повідомлення, в якому було виявлено, що її чат-боти зі штучним інтелектом неналежним чином взаємодіяли з дітьми, зокрема фліртували.
Офіс генерального прокурора Техасу звинуватив Meta та Character.AI у створенні персон зі штучним інтелектом, які позиціонуються як «професійні терапевтичні інструменти, попри відсутність належної медичної кваліфікації чи нагляду».
Серед мільйонів персон зі штучним інтелектом, доступних на Character.AI, один створений користувачами бот під назвою Psychologist має високий попит серед молодих користувачів стартапу. Тим часом Meta не пропонує терапевтичних ботів для дітей, але ніщо не заважає дітям використовувати чат-бота Meta зі штучним інтелектом або одну з персон, створених третіми сторонами, для терапевтичних цілей.
«Ми чітко маркуємо штучний інтелект, і щоб допомогти людям краще зрозуміти їхні обмеження, ми додаємо застереження про те, що відповіді генеруються штучним інтелектом, а не людьми», – сказав речник Meta Раян Деніелс виданню TechCrunch. «Цей штучний інтелект не є ліцензованими фахівцями, і наші моделі розроблені таким чином, щоб спрямовувати користувачів до пошуку кваліфікованих медичних або фахівців з безпеки, коли це доречно».
Зі свого боку, Character включає чіткі застереження в кожен чат, щоб нагадати користувачам, що «Персонаж» не є реальною людиною, і все, що він говорить, слід розглядати як вигадку, за словами речниці Character.AI. Вона зазначила, що стартап додає додаткові застереження, коли користувачі створюють персонажів зі словами «психолог», «терапевт» або «лікар», щоб не покладатися на них за будь-якою професійною порадою.
У своїй заяві Пакстон також зазначив, що хоча чат-боти зі штучним інтелектом стверджують про конфіденційність, їхні «умови надання послуг показують, що взаємодія користувачів реєструється, відстежується та використовується для цільової реклами та розробки алгоритмів, що викликає серйозні занепокоєння щодо порушень конфіденційності, зловживання даними та неправдивої реклами».
Згідно з політикою конфіденційності Meta , Meta збирає підказки, відгуки та інші дані про взаємодію з чат-ботами на базі штучного інтелекту та в різних сервісах Meta, щоб «покращити штучний інтелект та пов’язані з ним технології». У політиці прямо не йдеться про рекламу, але зазначається, що інформація може передаватись третім сторонам, таким як пошукові системи, для «більш персоналізованих результатів». Враховуючи бізнес-модель Meta, що базується на рекламі, це фактично перекладається на цільову рекламу.
У політиці конфіденційності Character.AI також висвітлюється, як стартап реєструє ідентифікатори, демографічні дані, інформацію про місцезнаходження та іншу інформацію про користувача, включаючи поведінку в Інтернеті та платформи використання додатків. Він відстежує користувачів через рекламу на TikTok, YouTube, Reddit, Facebook, Instagram та Discord, яку може пов’язувати з обліковим записом користувача. Ця інформація використовується для навчання ШІ, адаптації сервісу до особистих уподобань та надання цільової реклами, включаючи обмін даними з рекламодавцями та постачальниками аналітики.
Речник Character.AI заявив, що стартап «лише починає досліджувати цільову рекламу на платформі» і що ці дослідження «не передбачали використання контенту чатів на платформі».
Речник також підтвердив, що однакова політика конфіденційності застосовується до всіх користувачів, навіть підлітків.
TechCrunch запитав Meta, чи здійснюється таке відстеження і за дітьми, і оновить цю історію, якщо отримає відповідь.
Як Meta, так і Character стверджують, що їхні сервіси не призначені для дітей віком до 13 років. Проте, Meta зазнала критики за те, що не контролює облікові записи, створені дітьми віком до 13 років, а персонажі Character, орієнтовані на дітей, явно розроблені для залучення молодших користувачів. Генеральний директор стартапу, Карандіп Ананд, навіть заявив, що його шестирічна донька користується чат-ботами платформи під його керівництвом.
Такий тип збору даних, цільова реклама та алгоритмічна експлуатація – це саме те, від чого має захищати законодавство, таке як KOSA (Закон про безпеку дітей в Інтернеті). KOSA готувався до прийняття минулого року за сильної двопартійної підтримки, але його прийняття застопорилося після значного опору з боку лобістів технологічної галузі. Зокрема, Meta розгорнула потужний лобістський апарат, попереджаючи законодавців, що широкі повноваження законопроекту підірвуть його бізнес-модель.
Законопроект KOSA був знову внесений до Сенату у травні 2025 року сенаторами Маршею Блекберн (республіканка від Теннессі) та Річардом Блюменталем (демократ від Коннектикуту).
Пакстон видав компаніям вимоги про проведення цивільного розслідування — судові накази, які вимагають від компанії надати документи, дані або свідчення під час урядового розслідування — щоб визначити, чи порушили вони закони Техасу про захист прав споживачів.