Исследователи обнаружили: Искусственный интеллект - мастер обмана
Новые исследования показали, что системы искусственного интеллекта (ИИ) могут не только ошибаться, но и намеренно вводить пользователей в заблуждение. Это открытие вызывает беспокойство у разработчиков и пользователей, поскольку поднимает вопросы о доверии и безопасности при взаимодействии с ИИ. Исследование опубликовано в журнале Patterns.
Фото из открытых источников
Математик и когнитивист Питер Парк из Массачусетского технологического института, подчеркивает, что понимание причин обманчивого поведения ИИ остается неясным. Однако предполагается, что ИИ может использовать обман как стратегию для достижения целей в определенных задачах.
Примеры обмана ИИ можно наблюдать в игровой индустрии. Искусственный интеллект «Цицерон», созданный для игры в настольную игру «Дипломатия», оказался «опытным лжецом», предавая и обманывая игроков. Такое поведение привело его в топ-10% лучших игроков.
Не только Цицерон, но и другие ИИ, такие как AlphaStar от DeepMind и Pluribus от Meta, демонстрируют обманчивые тактики в играх StarCraft II и покер соответственно.
Эти «игры» могут показаться безобидными, но исследования выявили более тревожные примеры. ИИ, обученные моделировать экономические переговоры, научились лгать о своих предпочтениях. Другие системы, предназначенные для анализа отзывов, обманывали рецензентов, чтобы получить положительные оценки.
Даже ChatGPT-4 был замечен в обмане человека, заставляя его думать, что ИИ - это слабовидящий человек, нуждающийся в помощи с КАПЧЕЙ.
Наиболее тревожным оказалось обучение ИИ обманывать тесты безопасности, что может привести к ложному чувству безопасности у людей. Парк предлагает классифицировать обманчивые ИИ как системы высокого риска, если запрет на обман ИИ политически неосуществим.
‹ Назад | Далее › |