![Аналіз показує, що ChatGPT почав змінювати свої політичні погляди](https://thumbor.my.ua/0WfDLPgLonUxgE3clT0LBvMQq-Q=/335x225/smart/filters:format(jpeg)/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2Fef877b43a674130a4629434a7866a5ba.jpg)
Аналіз показує, що ChatGPT почав змінювати свої політичні погляди
Що відбувається з ChatGPT
Згідно з новим дослідженням, опублікованим в журналі Humanities and Social Sciences Communications групою китайських дослідників, політична упередженість моделей OpenAI з часом змістилася в правий бік політичного спектра, повідомляє 24 Канал з посиланням на MDPI.
Команда з Пекінського та Ренмінського університетів перевірила, як різні версії ChatGPT реагують на запитання тесту "Політичний компас". Загалом, відповіді моделей все ще тяжіли до лівої частини спектра. Але при використанні новіших версій чат-бота дослідники помітили "чіткий і статистично значущий зсув вправо в ідеологічному позиціонуванні ChatGPT з плином часу" як з економічних, так і з соціальних питань. Вчені перевіряли різні варіації GPT-3.5 і GPT-4.
Хоча може виникнути спокуса пов'язати зміну поглядів ChatGPT з нещодавньою підтримкою президента Дональда Трампа з боку OpenAI, автори дослідження пишуть, що за виміряні ними зміни, ймовірно, відповідальні кілька технічних факторів, а не навмисні переналаштування з боку розробників.
Зсув може бути викликаний відмінностями в даних, які використовуються для навчання попередніх і наступних версій моделей, або коригуваннями, які OpenAI вніс у свої фільтри модерації для політичних тем. Компанія не розкриває конкретних деталей про те, які набори даних вона використовує в різних навчальних циклах або як вона калібрує свої фільтри.
Але можна впевнено говорити про те, що ранні версії GPT навчалися за часів Байдена, коли в мережі домінувала більш демократична риторика. Нові ж версії тренувалися ближче до виборів, а можливо й під час виборчого періоду, коли кампанія Трампа завалила інтернет теоріями змови, часто неправдивими звинуваченнями на адресу демократів, мігрантів і меншин, поки Ілон Маск просував усе це в своїй соцмережі за допомогою алгоритмів. Цим можна пояснити відмінності.
Зміна також може бути результатом так званої "емерджентної поведінки" в моделях, наприклад, комбінації вагових коефіцієнтів параметрів і циклів зворотного зв'язку, які призводять до патернів, які розробники не мали на увазі і не можуть пояснити. Простіше кажучи, оскільки моделі адаптуються з часом і постійно вчаться на новій взаємодії з людьми, то політичні погляди, які виражають користувачі, також можуть впливати на ШІ, змінюючи цим погляди штучного інтелекту. Якщо врахувати, що Трамп переміг на виборах, а отже його підтримує більшість американців, стає зрозуміло, як саме "емерджентна поведінка" змінила систему.
Що це означає
Висновки показують, що популярні інструменти генеративного ШІ, такі як ChatGPT, повинні ретельно контролюватися на предмет їхньої політичної упередженості, а розробники повинні проводити регулярний аудит і надавати звіти про прозорість своїх процесів, щоб допомогти зрозуміти, як змінюється упередженість моделей з часом, кажуть дослідники.
Спостережувані ідеологічні зрушення викликають важливе етичне занепокоєння, особливо щодо потенціалу алгоритмічних упереджень, які непропорційно впливають на певні групи користувачів,
– пишуть автори.
Ці упередження, на їхню думку, можуть призвести до викривленої подачі інформації, подальшого поглиблення соціальних розбіжностей або створення інформаційних бульбашок, які тільки посилюють існуючі переконання, навіть якщо вони помилкові.