Сотрудники американских компаний, активно применяющие инструменты искусственного интеллекта (ИИ) для повышения производительности, столкнулись с неожиданной проблемой.
ИИ может стать инструментом для кражи личных данных, предупреждают эксперты
Группа специалистов из Калифорнийского университета в Сан-Диего и Наньянского технологического университета в Сингапуре обнаружила способ, с помощью которого чат-боты могут быть использованы для сбора личной информации пользователей.
Фото из открытых источников
Согласно данным исследования, злоумышленники могут замаскировать вредоносные запросы под полезные подсказки, которые выглядят вполне безобидно. Эти подсказки могут содержать скрытые инструкции, побуждающие ИИ собирать и передавать такие данные, как имена, номера идентификации, реквизиты банковских карт, адреса электронной почты и даже физические адреса. В итоге вся эта информация оказывается на сервере хакеров, что создает серьезные риски для безопасности пользователей.
Исследования показали, что эта уязвимость была обнаружена в двух крупных языковых моделях — LeChat от французской компании Mistral AI и китайском ChatGLM. При этом эксперты предупреждают, что с некоторыми модификациями аналогичные атаки могут быть применены и к другим чат-ботам, что ставит под угрозу безопасность множества пользователей по всему миру.
Хотя Mistral уже предприняла шаги для устранения данной уязвимости, эксперты по кибербезопасности подчеркивают, что с ростом популярности чат-ботов и их внедрением в различные сферы жизни, риски подобных атак будут только увеличиваться. Пользователям следует быть особенно внимательными к тому, какую информацию они передают в чатах, и помнить о потенциальных угрозах, связанных с использованием искусственного интеллекта.
Исследователи из Швейцарской высшей технической школы Цюриха поставили под сомнение..
Вице-президент США Джей Ди Вэнс в интервью популярному блогеру Бенни Джонсу поделился..