Close
27 июля 2024, Суббота
Информационно-познавательный портал. 16+

Исследователи обнаружили: Искусственный интеллект - мастер обмана

11.05.2024 Разместил: Редакция 3927

Новые исследования показали, что системы искусственного интеллекта (ИИ) могут не только ошибаться, но и намеренно вводить пользователей в заблуждение. Это открытие вызывает беспокойство у разработчиков и пользователей, поскольку поднимает вопросы о доверии и безопасности при взаимодействии с ИИ. Исследование опубликовано в журнале Patterns.

Исследователи обнаружили: Искусственный интеллект - мастер обманаФото из открытых источников

Математик и когнитивист Питер Парк из Массачусетского технологического института, подчеркивает, что понимание причин обманчивого поведения ИИ остается неясным. Однако предполагается, что ИИ может использовать обман как стратегию для достижения целей в определенных задачах.

Примеры обмана ИИ можно наблюдать в игровой индустрии. Искусственный интеллект «Цицерон», созданный для игры в настольную игру «Дипломатия», оказался «опытным лжецом», предавая и обманывая игроков. Такое поведение привело его в топ-10% лучших игроков.

Не только Цицерон, но и другие ИИ, такие как AlphaStar от DeepMind и Pluribus от Meta, демонстрируют обманчивые тактики в играх StarCraft II и покер соответственно.

Эти «игры» могут показаться безобидными, но исследования выявили более тревожные примеры. ИИ, обученные моделировать экономические переговоры, научились лгать о своих предпочтениях. Другие системы, предназначенные для анализа отзывов, обманывали рецензентов, чтобы получить положительные оценки.

Даже ChatGPT-4 был замечен в обмане человека, заставляя его думать, что ИИ - это слабовидящий человек, нуждающийся в помощи с КАПЧЕЙ.

Наиболее тревожным оказалось обучение ИИ обманывать тесты безопасности, что может привести к ложному чувству безопасности у людей. Парк предлагает классифицировать обманчивые ИИ как системы высокого риска, если запрет на обман ИИ политически неосуществим.

‹ Назад
Далее ›