/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fbda0de980b41e5aeb95a92e8b7e2ffee.jpg)
Обережно, з вами працює ШІ: які правила безпеки потрібно дотримуватися при контакті зі штучним інтелектом
Експерт з психології та підприємництва Костянтин Круглов рекомендує не розслаблятися, спілкуючись зі штучним інтелектом. Це може бути корисним, а може — і небезпечним, тому варто знати та застосовувати деякі прості правила при контакті зі ШІ
Обережне використання штучного інтелекту – чому це важливо
Згідно дослідження PMC 2024 року, серед підлітків 17 % зазнають залежності від ШІ, а через певний час – уже 24 %. Ставлення до ШІ як до способу уникання емоційних проблем посилює цю залежність.
Ба більше, нещодавно видавництво Time виявило, що наразі зростає кількість випадків "AI-психозу" – феномену, коли тривала взаємодія з чат-ботами може викликати або посилювати психотичні симптоми, особливо у вразливих осіб. Часто це призводить до серйозних наслідків: втрати роботи, госпіталізації, правових проблем.
Звісно, такі дані дещо лякають. Але, я б не хотів, аби люди, які прочитали наведений вище абзац, перестали використовувати такі технології та лякалися їх. Цю інформацію треба взяти до уваги та бути обережнішим, бо саме людина має користуватися технологіями, а не технології людиною.
Перше, що спадає на думку — це етична сторона використання ШІ. Варто зрозуміти, що ШІ може відтворювати або навіть посилювати упередження, дискримінацію чи несправедливість у рішеннях, бо він в першу чергу підлаштовується під вас і ваші побажання в діалозі з ним. Він обирає правильну для вас модель і йде за нею. Тому, важливо зрозуміти, що постійне використання такої "інформаційної бульбашки" може бути небезпечним з етичної точки зору. До цього ж можна віднести й повну відсутність інформаційної гігієни, бо генеративні моделі можуть створювати фейки чи дезінформацію. Потрібно вміти критично ставитися до отриманих результатів.
Наступний, дуже важливий пункт — це безпека даних та регуляторні аспекти, з цим пов’язані. Дослідники з Ben Gurion University, показали, що більшість топових чат-ботів (ChatGPT, Gemini, Claude) можна легко обійти, змусивши видавати шкідливу або незаконну інформацію – від інструкцій з хакінгу до виготовлення наркотиків.
Важливо Чи є майбутнє у вашої професії: яких працівників замінить ШІА вчені з NYU створили демонстраційний зразок, де великий мовний алгоритм (LLM) автономно здійснює всі етапи атаки: від пошуку файлів до їх шифрування та створення вимоги викупу. Експеримент показав, що використання комерційних API ШІ робить такі атаки надзвичайно дешевими (близько $0,70), а відкриті моделі — практично безкоштовними. Результати піднімають серйозне занепокоєння щодо майбутніх ризиків у кібербезпеці.
Для компаній це означає підвищену вразливість: порушення конфіденційності клієнтів, фінансові збитки, регуляторні штрафи та втрату репутації. Тому впровадження ШІ потребує не лише технічної ефективності, а й чіткої політики безпеки даних, зокрема — обмеження доступу, анонімізації інформації та постійного моніторингу систем. Для звичайних користувачів це також є небезпечним, бо якщо наші дані потраплять у чужі руки або будуть використані неналежним чином, виникають ризики крадіжки особистої інформації, шахрайства чи маніпуляцій.
І останнє, напевно, найактуальніше, особливо для молодого покоління — це соціальні та психологічні наслідки. Вже зараз існує тренд заміщення деяких професій штучним інтелектом. Нове дослідження від ADP показало – 16 % скорочення працевлаштування серед працівників віком 22–25 років у галузях, що піддаються автоматизації (служба підтримки, розробка). Старші працівники краще адаптуються. Здається, що це навіть добре, бо створює можливість обирати не рутинну роботу, а шукати себе в чомусь креативнішому, та ближчому до душі. Також спонукає до розвитку і навчання, але часто люди плутають, кого можна замінити ШІ, а кого – ні. Як, наприклад, психолога. Яскравий, але трагічний приклад стосовно цієї теми навів фахівець з безпеки ШІ Нейт Соарес, про мериканського підлітка, Адама Рейна, котрий наклав на себе руки після тривалого спілкування з ChatGPT. Людина набагато краще розуміє соціальний контекст, коли як робот іноді не підбирає слів або не відчуває емоційного підтексту.
Окрім змін на ринку праці, з’являється питання нерівності доступу: ті, хто має можливість працювати з сучасними інструментами ШІ, отримують значну перевагу, тоді як інші ризикують залишитися поза процесами. Це може посилити соціальний розрив між різними групами населення та країнами.
Автор висловлює особисту думку, яка може не співпадати із позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.
Важливо ChatGPT змінює правила: в яких випадках ШІ може викликати поліцію або санітарів