ИИ может стать инструментом для кражи личных данных, предупреждают эксперты
Группа специалистов из Калифорнийского университета в Сан-Диего и Наньянского технологического университета в Сингапуре обнаружила способ, с помощью которого чат-боты могут быть использованы для сбора личной информации пользователей.
Фото из открытых источников
Согласно данным исследования, злоумышленники могут замаскировать вредоносные запросы под полезные подсказки, которые выглядят вполне безобидно. Эти подсказки могут содержать скрытые инструкции, побуждающие ИИ собирать и передавать такие данные, как имена, номера идентификации, реквизиты банковских карт, адреса электронной почты и даже физические адреса. В итоге вся эта информация оказывается на сервере хакеров, что создает серьезные риски для безопасности пользователей.
Исследования показали, что эта уязвимость была обнаружена в двух крупных языковых моделях — LeChat от французской компании Mistral AI и китайском ChatGLM. При этом эксперты предупреждают, что с некоторыми модификациями аналогичные атаки могут быть применены и к другим чат-ботам, что ставит под угрозу безопасность множества пользователей по всему миру.
Хотя Mistral уже предприняла шаги для устранения данной уязвимости, эксперты по кибербезопасности подчеркивают, что с ростом популярности чат-ботов и их внедрением в различные сферы жизни, риски подобных атак будут только увеличиваться. Пользователям следует быть особенно внимательными к тому, какую информацию они передают в чатах, и помнить о потенциальных угрозах, связанных с использованием искусственного интеллекта.
Смотреть комментарии → Комментариев нет