Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта
Почему ChatGPT придумывает ответы и как это можно исправить: советы эксперта
Распространенное представление о том, что искусственный интеллект "галлюцинирует", когда выдает ложные ответы, является ошибочным. ИИ на самом деле не хватает информации, которую вы хотели бы от него получить, объяснил заведующий лабораторией иммерсивных технологий и права НАН Украины, доктор юридических наук Алексей Костенко в интервью редактору отдела образования и науки ZN.UAОксане Онищенко.
По его словам, так называемые "галлюцинации ИИ" являются результатом информационного голода по определенному вопросу. Костенко отметил, что каждый запрос пользователя — это новый опыт, на котором модель учится. Он советует пользователям, которые хотят получать точные ответы, научить искусственный интеллект правильно работать.
Эксперт рассказал, что за полгода "поднатаскал" (указал как надо и не надо делать) собственного ChatGPT до уровня "магистра". Костенко указал, что ИИ научился качественно отвечать на запросы по технико-юридической и общей тематике.
"А также создать свою базу данных. Я под свои запросы загружал статьи из известных научных ресурсов. В итоге если я в своей сфере задаю вопрос ChatGPT, он оперирует в первую очередь базой знаний, которую я ему собрал. А потом идет в интернет и по аналогии уже более направлено находит необходимые токены — расширенную информацию, которая будет более профессиональной, чем та, что он выдавал мне в начале обучения", — объяснил ученый.
Костенко заявил, что текущее поколение ИИ не имеет эмпатии или способности отличать "плохое" от "хорошего", однако возможно научить его работать только с проверенными источниками.