ВООЗ, зокрема, дослідила алгоритм штучного інтелекту LLM, який використовує методи глибокого навчання та великі набори даних для розуміння, узагальнення та створення нового контенту.
ВООЗ стурбована тим, що такі відомі платформи як ChatGPT, Bard, Bert тощо імітують людське спілкування,але до них не застосовуються заходи обережності, що зазвичай дотримується стосовно всіх нових технологій. Це досить ризиковано, коли мова йде про використання цих платформ у сфері охорони громадського здоров’я.
– Швидке скоростигле впровадження неперевірених систем може призвести до помилок медпрацівників, завдати шкоди пацієнтам, підірвати довіру до ШІ-технологій у всьому світі, — зазначають у ВООЗ.
Рекомендації ШІ можуть здаватися авторитетними та правдоподібними, але бути абсолютно неправильними або містити серйозні помилки. Через те, що в даних, які використовуються для навчання ШІ, не виключені упередження та оманлива або неточна інформація.
І, звісно, ШІ не обходитиме конфіденційні дані (зокрема про стан здоров’я), що може зашкодити пацієнту.
Не можна виключати і те, що через інструменти ШІ можуть свідомо поширювати дезінформацію, яку буде досить важко відрізнити від надійного медичного контенту, настільки вона здаватиметься переконливою.
ВООЗ запевняє, що з ентузіазмом ставиться до нових технологій, у тому числі LLM. Але пропонує надати громадськості і фахіцям чіткі докази їхньої користі і безпечності перед тим, як широко впроваджувати.
Джерело: