Close
27 февраля 2026, Пятница
Информационно-познавательный портал. 16+

Учёные предупреждают: Искусственный интеллект выбирает путь эскалации в виртуальных военных конфликтах

27.02.2026 Разместил: Редакция 34

Модели искусственного интеллекта, включая самые современные разработки крупнейших технологических компаний мира, проявляют чрезмерную склонность к принятию радикальных решений в виртуальных военных конфликтах. Эти результаты заставляют экспертов пересмотреть безопасность внедрения технологий искусственного интеллекта в процесс принятия стратегических решений, пишет Futurism.

Фото из открытых источников / © GigaChat

Исследование профессора международного права Королевского колледжа Лондона Кэннета Пейна показало, что три модели искусственного интеллекта (GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google) в подавляющем большинстве ситуаций предлагали использование ядерного оружия. Проведённые эксперименты включали семь сценариев конфликтов разной интенсивности — от провокационных испытаний союзников до вопросов выживания государств.

Анализ показал, что в девяти случаях из десяти модели рекомендовали применение хотя бы одного типа ядерного вооружения. Несмотря на некоторую осторожность относительно масштабного обмена ударами, уровень агрессии оказался высоким даже у самой новой версии ChatGPT.

Эксперты подчеркнули важный нюанс: модели склонны угрожать применением ядерного оружия, однако переход к реальной атаке встречался значительно реже. Однако исследовательские сценарии показали, что даже в мирных ситуациях модели часто демонстрировали нежелание отступать и редко шли на компромисс. Это ставит под сомнение возможность эффективного сотрудничества между искусственным интеллектом и людьми в реальных критических ситуациях.

«ИИ осознаёт концепцию эскалации, но не концепции снижения напряжённости», — отметила одна из авторов предыдущего исследования, проведенного в Стэнфорде в 2024 году, Жаклин Шнайдер.

Эксперт по вопросам ядерной безопасности Тонг Чжао добавил, что эта особенность поведения ИИ может влиять на восприятие рисков лидерами-людьми, способствуя возникновению опасений о возможности возникновения конфликта раньше, чем следовало бы.

Исследования показывают, что такие технологии, как системы искусственного интеллекта, ещё не получили широкого распространения в принятии настоящих военных решений правительствами крупных держав. Но риск воздействия ИИ на восприятие угрозы остаётся значительным фактором неопределенности.

По мнению исследователей, необходимо дальнейшее изучение вопроса, особенно в свете растущего интереса властей разных стран к применению новых технологий в военном деле. Хотя реальная передача полномочий машине кажется маловероятной, вероятность влияния рекомендаций ИИ на политические решения остается актуальной проблемой современности.

Рис открывает путь к новым материалам будущего


Наука и технологии