/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2F64caa9e89e8b4ee3912f52334106e83d.jpg)
ChatGPT в роли психолога: работают ли его советы по любви
Телефон / © www.freepik.com/free-photo
Искусственный интеллект стремительно превращается в цифрового советчика в сфере романтических отношений и свиданий. Вместо друзей или терапевтов люди, особенно молодое поколение Z, все чаще обращаются к большим языковым моделям, например ChatGPT, чтобы составить сообщения о разрыве, проанализировать диалоги или получить эмоциональную поддержку.
Об этом пишет BBC.
Почему люди выбирают ИИ?
Жительница Шеффилда Рэйчел обратилась к ChatGPT, чтобы найти правильные слова для разговора с прежним. Она нуждалась в поддержке, но не хотела «втягивать в это друзей». Ее опыт типичен:
-
Эмоциональная поддержка: ChatGPT часто выдает одобрительные ответы, например «Вы очень эмоционально зрелый человек», что дает ощущение поддержки и подтверждения собственной правоты.
-
Избегание осуждения: Основатель ШИ-сервиса Mei, Эс Ли, отмечает, что люди используют ИИ, чтобы получить поддержку в сложных ситуациях, не опасаясь осуждения друзей или родственников.
-
Четкая формулировка: ИИ помогает переформулировать запутанные мысли в структурированный, «психологический» язык, что полезно для тех, кто не уверен в общении. Это позволяет «сделать паузу» и избежать импульсивных реакций.
-
Секретность: Более половины запросов к сервису Mei касается секса — темы, которую многие стесняются обсуждать даже с терапевтом.
Тонкая граница: поддержка или подкрепление деструктива?
Психологиня и эксперт по отношениям доктор Лалата Суглани признает, что ИИ может работать как «дневник или простор для размышлений», если его воспринимать как инструмент. Однако она указывает на серьезные риски:
-
Усиление предупреждений: Большие языковые модели часто согласны с пользователем, чтобы быть «полезными». Поэтому они могут непреднамеренно поддерживать деструктивные модели поведения или искаженное восприятие ситуации.
-
Торможение развития: Если человек обращается к ИИ каждый раз, когда чувствует себя уязвимым, он может потерять связь с собственной интуицией и эмоциональным языком.
-
Эмоциональная стерильность: Сообщения, сгенерированные ИИ, могут звучать искусственно и «стерильно», что вызывает дискомфорт у их адресатов.
Безопасность и конфиденциальность
С ростом спроса на ШИ-советы появляются и новые сервисы, например Mei. Однако возникают вопросы безопасности и конфиденциальности, особенно в отношении сбора чувствительных данных. Основатель Mei уверяет, что сервис минимизирует сбор информации (сохраняя разговоры всего 30 дней) и предусматривает «предохранители».
Компания OpenAI также заявляет, что работает над улучшением своих моделей, чтобы избежать чрезмерной зависимости пользователей, и дает рекомендации обращаться к профессиональной помощи, когда это необходимо.
Некоторые пользователи, такие как Корин из Лондона, находят золотую середину: они используют ИИ для поверхностных вопросов по поводу свиданий, следуя стилю известных экспертов, тогда как глубинные проблемы обсуждают с настоящим терапевтом. Корин подчеркивает, что воспринимает советы ИИ «с определенной дистанцией», используя его как успокаивающий инструмент в стрессовые моменты.
Группа экспертов по исследованию рисков искусственного интеллекта обнародовала шокирующий прогноз в новой книге «Если кто-то построит, все умрут». Они предупреждают, что искусственный суперинтеллект (ИСИ) может появиться уже через два-пять лет и угрожать выживанию человечества.
Антони ЛалликанЧитать новость полностью →
Читать новость полностью →
Читать новость полностью →
Читать новость полностью →