Команда исследователей из Северо-Западного института ядерных технологий в китайском городе Сиань создала систему, способную излучать мощный микроволновый луч продолжительностью до минуты.
Учёные предупреждают: Искусственный интеллект выбирает путь эскалации в виртуальных военных конфликтах
Модели искусственного интеллекта, включая самые современные разработки крупнейших технологических компаний мира, проявляют чрезмерную склонность к принятию радикальных решений в виртуальных военных конфликтах. Эти результаты заставляют экспертов пересмотреть безопасность внедрения технологий искусственного интеллекта в процесс принятия стратегических решений, пишет Futurism.
Фото из открытых источников / © GigaChat
Исследование профессора международного права Королевского колледжа Лондона Кэннета Пейна показало, что три модели искусственного интеллекта (GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google) в подавляющем большинстве ситуаций предлагали использование ядерного оружия. Проведённые эксперименты включали семь сценариев конфликтов разной интенсивности — от провокационных испытаний союзников до вопросов выживания государств.
Анализ показал, что в девяти случаях из десяти модели рекомендовали применение хотя бы одного типа ядерного вооружения. Несмотря на некоторую осторожность относительно масштабного обмена ударами, уровень агрессии оказался высоким даже у самой новой версии ChatGPT.
Эксперты подчеркнули важный нюанс: модели склонны угрожать применением ядерного оружия, однако переход к реальной атаке встречался значительно реже. Однако исследовательские сценарии показали, что даже в мирных ситуациях модели часто демонстрировали нежелание отступать и редко шли на компромисс. Это ставит под сомнение возможность эффективного сотрудничества между искусственным интеллектом и людьми в реальных критических ситуациях.
«ИИ осознаёт концепцию эскалации, но не концепции снижения напряжённости», — отметила одна из авторов предыдущего исследования, проведенного в Стэнфорде в 2024 году, Жаклин Шнайдер.
Эксперт по вопросам ядерной безопасности Тонг Чжао добавил, что эта особенность поведения ИИ может влиять на восприятие рисков лидерами-людьми, способствуя возникновению опасений о возможности возникновения конфликта раньше, чем следовало бы.
Исследования показывают, что такие технологии, как системы искусственного интеллекта, ещё не получили широкого распространения в принятии настоящих военных решений правительствами крупных держав. Но риск воздействия ИИ на восприятие угрозы остаётся значительным фактором неопределенности.
По мнению исследователей, необходимо дальнейшее изучение вопроса, особенно в свете растущего интереса властей разных стран к применению новых технологий в военном деле. Хотя реальная передача полномочий машине кажется маловероятной, вероятность влияния рекомендаций ИИ на политические решения остается актуальной проблемой современности.
Группа физиков из Киотского университета предложила новую теорию, объясняющую механизм..
Несмотря на широкое распространение информации в сети Интернет, многие убеждения,..