ВВС: чатботи штучного інтелекту не здатні точно узагальнювати новини
Чатботи зі штучним інтелектом, такі як ChatGPT від OpenAI, Gemini від Google, Microsoft Copilot і Perplexity, допускають значних помилок, створюючи узагальнення новин. Про це повідомило BBC, яке провело власне дослідження.
Дослідження тривало близько місяця. Кожен чатбот просили створити підсумки для ста публікацій медіа, а журналісти їх перевіряли. Лише 49% узагальнень, створених ШІ, не містили помилок, тоді як у 51% були різноманітні неточності.
Зокрема, у 19% резюме публікацій ВВС були згенеровані неправильні твердження, цифри та дати.Тим часом у 13% підсумках публікацій з BBC були виявлені або змінені з першоджерела цитати, або такі, яких не було в цитованій статті.
Серед помилок, які допускали чатботи, було подання старих новин як актуальних, а також змішування інформацію з останніх новин із застарілими даними.
Ще однією проблемою чатботів є те, що вони не завжди здатні розрізнити фактичні дані та авторську думку. Журналісти BBC виявили щонайменше 23 випадки, коли думка автора подавалася як факт.
У межах цього дослідження BBC виявило, що Copilot і Gemini допускать більше суттєвих помилок у відповідях на основі новин, ніж ChatGPT чи Perplexity, однак проблеми спостерігаються у всіх чатботів.
- Читайте також: RSF закликали Apple прибрати функцію генеративного штучного інтелекту після поширення фейкових новин, приписаних BBC
Фото: застосунки ШІ-чатбтотів / seekingalpha.com
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.