/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F50996ec48a98df08af51491368b96207.jpg)
ChatGPT небезопасен: 5 вещей, которые нельзя говорить чат-боту с ИИ
Чат-боты с искусственным интеллектом (ИИ), такие как ChatGPT от OpenAI, могут использовать данные пользователей для дальнейшего обучения или предоставлять их третьим лицам для проверки соответствия правилам использования.
В Forbes назвали 5 вещей, которые никогда нельзя рассказывать ChatGPT или любому другому публичному облачному чат-боту.
Незаконные или неэтичные запросы
Многие ИИ-боты защищены от использования в неэтичных целях. Поэтому вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к серьезным правовым последствиям и ущербу репутации.
Важно "Это самое жуткое": у ChatGPT спросили, как бы он захватывал мир (видео)Нередко в политике использования указано, что о попытках использовать ИИ для незаконных действий может быть доложено властям. Эти законы могут сильно различаться в разных странах. К примеру, в Китае запрещена использовать ИИ для подрыва государственной власти или социальной стабильности, а в Великобритании предусмотрена уголовная ответственность за распространение откровенных изображений, созданных ИИ.
Логины и пароли
Многие люди используют агентный ИИ, способный подключаться к сторонним сервисам и использовать их. В издании предупреждают, что предоставлять ИИ учетные данные для входа может быть опасно.
После того как данные попадают в публичный чат-бот, их становится сложно контролировать. Известны случаи, когда персональные данные, введенные одним пользователем, раскрывались в ответах другим человеком.
Финансовая информация
Банковские счета или номера кредитных карт можно вводить только в защищенные системы, которые имеют встроенные защитные меры, такие как шифрование и автоматическое удаление данных после их обработки. Чат-боты с ИИ не имеют такой защиты.
Авторы статьи отметили, что после предоставления данных ИИ, невозможно узнать их дальнейшую судьбу. Ввод финансовой информации может сделать пользователя жертвой мошенничества, привести к краже личных данных, фишингу и атакам программ-вымогателей.
Конфиденциальная информация
Как отмечают в издании, у каждого есть обязанность хранить конфиденциальность информации, за которую он несет ответственность. Речь идет о соблюдении конфиденциальности перед своими работодателями, а также между профессионалами, например, врачами, юристами и бухгалтерами, и их клиентами.
Обмен деловыми документами, такими как заметки и протоколы совещаний или транзакционные записи, может считаться нарушением конфиденциальности, поэтому не стоит делиться рабочей информацией с ChatGPT.
Медицинские данные
Многие пользователи ChatGPT поддаются соблазну проконсультироваться с ИИ касательно своих проблем со здоровьем. Эксперты призывают делать это с крайней осторожностью, особенно учитывая, что недавние обновления позволяют ему "запоминать" информацию из разных чатов, чтобы лучше понимать пользователей
В издании подчеркнули, что ни одна из этих функций не имеет никаких гарантий конфиденциальности. Это предостережение особенно касается учреждений, связанных со здравоохранением, которые имеют дело с данными пациентов.
Также сообщалось, что киберпреступники внедряют небольшие дозы "отравленных данных" в важнейшие наборы обучения ИИ, что может привести к серьезным последствиям.