/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F1%2Fec898e9be209a673fb5fbc54163f5760.jpg)
Чоловік отруївся після поради ChatGPT — що саме він вжив
Отруєння через пораду ШІ / © Unsplash
У США чоловік опинився в лікарні з нападом галюцинацій і отруєнням після того, як виконав пораду ChatGPT.
Цей випадок описано у журналі American College of Physicians Journals.
Кажуть, що найгірше, що можна зробити, коли почуваєшся зле, — це «загуглити» свої симптоми. Але, як виявилося, звернення по медичну пораду до ChatGPT також може мати серйозні наслідки.
60-річний чоловік переконався в цьому на власному досвіді, коли опинився в лікарні після того, як отруївся, дотримуючись порад ШІ-чатбота.
Це сталося після того, як користувач занепокоївся щодо кількості солі у своєму раціоні та її негативним впливом на здоров’я. Він вирішив порадитися з ChatGPT про повне виключення хлориду натрію.
ШІ-бот запропонував замінити його на бромід — речовину, що в невеликих кількостях міститься в морській воді та певних мінералах. Раніше бромід використовувався як інгредієнт у деяких фармацевтичних препаратах, однак згодом було встановлено, що у великих дозах він токсичний для людини.
Не знаючи цього, чоловік замовив у Мережі бромід натрію (неорганічна бінарна сполука, середня сіль лужного металу натрію та бромистоводневої кислоти — ред.) та почав вживати його замість солі. Приблизно через три місяці у нього з’явилися сильні галюцинації, і він потрапив до лікарні.
Раніше чоловік не мав жодних проблем зі здоров’ям. Після лікування рідинами та електролітами у нього виявили інші симптоми — акне та червоні ангіоми, що дозволило лікарям діагностувати бромізм.
Бромізм — це отруєння, викликане надмірним впливом брому. Воно може призводити до судом, тремору, сплутаності свідомості, коми, а також викликати тривожність, депресію, психоз, втому та анорексію.
«Натхненний тим, що вивчав дієтологію в коледжі, він вирішив провести особистий експеримент і виключити хлорид із раціону», — йдеться у звіті.
Він замінив кухонну сіль на бромід натрію, придбаний в інтернеті після консультації з ChatGPT, де прочитав, що хлорид можна замінити бромідом (ймовірно, у зовсім інших цілях, наприклад для очищення).
Після трьох тижнів у лікарні чоловіка виписали. Автори випадку застерегли інших не повторювати його помилки та не сприймати поради ШІ як медичну істину.
«Варто враховувати, що ChatGPT та інші системи штучного інтелекту можуть генерувати наукові неточності, не здатні критично обговорювати результати й зрештою сприяти поширенню дезінформації», — йдеться у поясненні.
Тим часом компанія OpenAI, розробник ChatGPT, нагадує, що в Умовах використання зазначено: інформація «може бути не завжди точною».
«Ви не повинні покладатися на результати наших сервісів як на єдине джерело істини чи фактичної інформації або як на заміну професійної консультації», — сказано там. А також уточнюється: «Наші сервіси не призначені для діагностики чи лікування будь-яких станів здоров’я».
Інформація, що міститься на цьому сайті, не призначена для заміни професійної медичної консультації, діагностики чи лікування. Завжди звертайтеся за порадою до лікаря або іншого кваліфікованого медичного працівника з будь-якими питаннями щодо стану вашого здоров'я.
Інший житель Британії 45-річний Лі Редпат, на жаль, помер після того, як вживав неліцензований препарат фенбендазол, помилково вважаючи його профілактикою раку. Насправді це були таблетки від глистів для коней.