/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F7ad021dc36d33b3606866629ffdbb089.jpg)
Люди обращаются к ChatGPT за советами в любви — это может сделать их несчастными
Кажется, не все понимают, что ChatGPT — не живой человек, не источник безоговорочного знания и не психолог. Люди обращаются к ИИ за советами в романтических отношениях, и это плохая идея.
Автор Vice Сэмми Карамела с удивлением узнала об этом явлении и в начале года написала о мужчине, девушка которого «постоянно использует ChatGPT для терапии и просит у него совета по отношениям». Более того, эта девушка даже вспоминала то, что ей говорил ChatGPT, во время споров с любимым.
«Тогда меня немного ошеломило это признание. Я понятия не имел, что люди на самом деле обращаются к искусственному интеллекту за советом, не говоря уже о мнении относительно своих отношений», — пишет Карамела.
После этого автор погрузилась в исследование темы и осознала, насколько это распространенное явление, «особенно в эпоху, когда терапия стала роскошью». Способность языковых моделей искусственного интеллекта давать советы такого уровня, мягко говоря, вызывает сомнения, но люди этим активно пользуются. Но помогает ли это им?
Подруга рассказала Сэмми, что сначала пыталась использовать чат как «способ обмена идеями с беспристрастным источником». Однако впоследствии она заметила, что ChatGPT все же предвзят. Он чаще всего только подтверждал ее опыт, «возможно, даже опасный».
У Reddit возникло обсуждение ответов времени как подтверждение и подпитка человеческих иллюзий. Некоторые люди были воодушевлены такой поддержкой, другие испытывали «ощущение преследования со стороны OpenAI». Поддержка чатом даже «маниакального бреда» заставляет некоторых задуматься, является ли ChatGPT в его нынешнем виде опасным для людей.
Ранее ITC.ua уже писал о подпитка чатботами бреда психически нестабильных людей, а также о навязчивые состояния и мысли, которые навевало общение с ним — вплоть до опасности для жизни. Но есть еще одна сторона: отношения людей и жизненные советы. Многие нарциссы, эгоисты и токсикологи могли бы получить одобрение своего поведения.
«Теперь давайте проясним одно: ИИ не может напрямую вызвать разрыв отношений. В конце концов, вы принимаете решение сами. Если вы несчастны, недовольны или к вам плохо относятся, вы, безусловно, будете знать в своем сердце, что пора уйти», — замечает Сэмми Карамела.
Автор вспомнила о своей борьбе с обсессивно-компульсивным расстройством (ОКР). Она признает, что в ее состоянии советы ChatGPT, особенно если бы она не упомянула о своем ОКР, могли бы быть однозначно губительными. «Я могла бы получить бесполезные, даже вредные суждения о моих отношениях». В треде по расстройству она нашла свидетельства случаев, когда ChatGPT настойчиво советовал расстаться. Официальная запись NOCD, службы лечения и терапии ОКР, дала разъяснения, которые могут некоторым показаться очевидными, но в реальности люди не всегда к ним прислушиваются:
«Может показаться, что ChatGPT имеет все ответы, но поймите, что инженеры упорно работают над тем, чтобы ответы приложения звучали авторитетно, хотя на самом деле это связано со многими оговорками. LLM на основе искусственного интеллекта — не самые надежные программы. Хотя они могут давать красноречивые ответы, они часто «галлюцинируют», предоставляют неточную информацию и цитируют несвязанные исследования».
Так что обращаться к ChatGPT за советами по жизни и отношениям — точно не лучшая місль. «Подхалим» с «галлюцинациями», который на самом деле не является человеком, не имеет опыта и квалификации, может привести к пропасти, даже буквально.