/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F7ef0cd0cef7ccaa8961963ec0ab50948.jpg)
Використання ШІ для пошуку інформації має серйозні наслідки для вашого мозку
Як ШІ впливає на глибину знань?
Дослідники з Пенсільванського університету провели серію з семи експериментів, щоб порівняти ефективність навчання через мовні моделі та звичайний веб-пошук. Учасникам пропонували вивчити певну тему, наприклад, як вирощувати рослини на городі, використовуючи або ChatGPT, або звичний пошук у Google. Після завершення дослідження вони повинні були скласти перелік порад на основі отриманої інформації, пише 24 Канал з посиланням на ScienceAlert.
Результати виявились однозначними: ті, хто покладався на мовну модель, відчували, що засвоїли менше знань, витрачали менше зусиль на написання порад та створювали коротші, менш фактичні й більш загальні тексти.
Коли незалежні читачі оцінювали ці поради, не знаючи, який інструмент використовувався, вони вважали матеріали, створені після використання ШІ, менш інформативними та корисними.
Науковці перевірили різні сценарії, щоб виключити вплив сторонніх факторів. В одному експерименті учасники отримували однакові факти і через Google, і через ChatGPT. В іншому порівнювали стандартні результати Google з функцією AI Overview цієї ж платформи. Навіть за однакового набору фактів і платформи синтезовані відповіді ШІ призводили до формування менш глибоких знань.
Чому так відбувається?
Ключ до розуміння цього явища лежить у самій природі навчання. Коли людина шукає інформацію через звичайний пошук, вона стикається з певним опором: треба переходити за різними посиланнями, читати джерела, самостійно інтерпретувати та узагальнювати дані. Хоча це складніше, саме такий процес формує глибше та оригінальніше розуміння теми, йдеться в науковій статті на сторінках Oxford University Press.
Натомість мовні моделі виконують всю цю роботу замість користувача, перетворюючи активне навчання на пасивне сприйняття готової інформації. Ба більше, часто вони не беруть до уваги якісь деталі, упускають дрібниці, які можуть виявитися ключовими для розуміння теми. Чат-боти не є розумними, вони не розуміють по-справжньому, а тому не завжди здатні прийняти рішення про вагу того чи іншого факту так, як людина.
Виправити ШІ
Дослідники також намагалися зробити навчання через мовні моделі більш активним процесом. Вони тестували окрему GPT-модель, яка надавала посилання на оригінальні джерела разом із синтезованими відповідями. Однак виявилося, що після отримання резюме від ШІ учасники не були мотивовані глибше досліджувати первинні матеріали, пише The Conversation.
Що ж робити?
Автори дослідження не закликають повністю відмовитися від використання великих мовних моделей. Йдеться радше про усвідомлений підхід до вибору інструментів залежно від мети. Якщо потрібна швидка фактична відповідь, ШІ-помічник цілком підходить. Проте для розвитку глибоких та комплексних знань у певній сфері покладатися виключно на синтезовані відповіді ШІ недостатньо.
У майбутніх дослідженнях науковці планують вивчати інструменти генеративного ШІ, які створюватимуть корисний опір для навчальних завдань та стимулюватимуть користувачів активніше вчитися. Це особливо важливо для середньої освіти, де педагоги стикаються з викликом розвитку базових навичок читання, письма та математики в світі, де мовні моделі стають частиною повсякденного життя.