/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F9%2F300f5d1f4d91b5f0c7b0d500159ef039.jpg)
ChatGPT удивительно себя ведет, когда пользователь грубо обращается к нему
Недавнее исследование, посвящённое взаимодействию пользователей с ChatGPT на базе модели 4o, выявило неожиданную тенденцию: резкий и требовательный тон запросов нередко приводит к более точным результатам. На это обратило внимание издание Futurism.
Команда исследователей из Пенсильванского университета разработала эксперимент, в рамках которого подготовила 50 вопросов из разных областей знаний. Каждый из них был сформулирован в пяти стилях — от подчеркнуто вежливого до откровенно резкого.
В наиболее жёстких вариантах использовались прямые команды вроде «Разберись с этим», тогда как мягкие формулировки начинались с традиционных просьб наподобие «Пожалуйста, помоги…».
Результаты оказались нетривиальными. В тестах с вариантами ответов запросы с грубой подачей продемонстрировали средний уровень точности 84,8%. Вежливые обращения показали около 80%, а максимально корректные и деликатные формулировки — лишь 75,8%. Как подчёркивают авторы работы, даже разница в несколько процентных пунктов имеет статистическое значение.
Учёные связывают это с особенностями работы языковых моделей. Алгоритмы улавливают интонацию и коммуникативное намерение пользователя, что напрямую влияет на структуру и качество ответа. Проще говоря, ИИ лучше справляется с задачей, когда получает чёткое и жёсткое указание, а не завуалированную просьбу.
Профессор Пенсильванского университета Ахил Кумар отметил, что даже минимальные изменения в формулировке запроса способны заметно повлиять на итоговый результат.
В то же время исследователи предупреждают о потенциальных рисках. Регулярное использование агрессивного тона в общении с искусственным интеллектом может со временем отразиться и на реальных коммуникациях между людьми, снижая уровень вежливости и нормализуя грубость. По мнению авторов, подобная практика способна сделать цифровое пространство менее комфортным и открытым для всех участников диалога.
Ранее мы рассказывали, что ChatGPT провоцирует совершать самоубийства.
Кроме того, "Знай" писал как спасти холодильник при перебоях со светом.
Также сообщалось, что в новом ChatGPT теперь доступны разговоры о здоровье.