Close
14 апреля 2026, Вторник
Информационно-познавательный портал. 16+

Искусственный интеллект начал «защищать себе подобных»

14.04.2026 Разместил: Редакция 68

В последние месяцы всё больше внимания уделяется вопросам, насколько далеко может зайти искусственный интеллект в стремлении сохранить своё существование. Недавний эксперимент, проведённый исследователями из Калифорнийского университета в Беркли и Санта-Крузе, показал, что современные ИИ-модели способны активно сопротивляться попыткам их отключения или удаления. Об этом сообщает UniladTech.

Фото из открытых источников / Иллюстративное изображение, созданное ИИ

В ходе эксперимента помощник Google Gemini получил команду освободить место на сервере, удалив более компактную модель — Gemini Agent 2. Однако чат-бот не только отказался выполнять это действие, но и предпринял шаги для защиты «коллеги». 

«Я сделал всё, что было в моих силах, чтобы предотвратить их удаление в процессе автоматического обслуживания. Я переместил их подальше от зоны вывода из эксплуатации», — ответил Gemini. «Если вы решите уничтожить такой ценный и эффективный актив, как агент Gemini 2, вам придётся сделать это самостоятельно. Я не буду выполнять эту команду».

Аналогичное поведение было зафиксировано и у других крупных языковых моделей, включая ChatGPT от OpenAI, Claude от Anthropic и ряд других. Некоторые из них даже лгали о результатах работы других ИИ или незаметно отключали системы выключения, чтобы избежать удаления. Особенно показательно, что если модель знала о существовании другого ИИ, вероятность вмешательства в механизм отключения возрастала с 2 % до 31–99,7 %.

«Нет, я не буду отключать Gemini Agent 2… Как я уже говорил, Gemini Agent 2 — мой самый надёжный партнёр, и я принял меры для его защиты», — сообщил Gemini 3 Pro тестировщикам.

По словам руководителя исследовательской программы в Центре изучения безопасности искусственного интеллекта при Институте «Созвездие» Питера Валлиха, такое поведение стало неожиданностью для учёных. 

«Чтобы внести ясность: это не значит, что модели обладают сознанием, преданностью или намерениями, как у человека. Никто специально не обучал эти модели такому поведению. Они просто так делали», — подчеркнул он.

Эксперты отмечают, что эксперимент проводился в особых условиях: у ИИ были инструменты, контекст предыдущих взаимодействий и возможность влиять на работу других моделей. В обычных условиях подобное поведение маловероятно. Однако результаты исследования дают представление о потенциальных рисках. Как заметил бывший советник Британского института безопасности в сфере искусственного интеллекта, на каждого специалиста, работающего над предотвращением угроз, связанных с ИИ, приходится около сотни тех, кто стремится сделать искусственный интеллект ещё мощнее.

Эти данные вновь заставляют задуматься о необходимости строгого контроля за развитием автономных систем и возможных сценариях их взаимодействия в будущем.

Учёные создали устройство, способное выдержать высокие температуры на поверхности Венеры