Close
23 ноября 2024, Суббота
Информационно-познавательный портал. 16+

Искусственный интеллект - «Великий фильтр», блокирующий развитие разумной жизни?

09.04.2024 Разместил: Редакция 4177

В новой статье, опубликованной в Acta Astronautica, исследователи выдвигают гипотезу, согласно которой быстрое развитие искусственного интеллекта (ИИ) может стать «Великим фильтром», препятствующим развитию межпланетных и межзвездных цивилизаций.

Фото из открытых источников

Парадокс Ферми - это несоответствие между высокой вероятностью существования развитых цивилизаций во Вселенной и отсутствием доказательств их существования. Одна из теорий, объясняющих этот парадокс, - «Великий фильтр». Великий фильтр - это гипотетическое событие или ситуация, которая препятствует становлению разумной жизни межпланетной или межзвездной.

Исследователи предполагают, что быстрое развитие ИИ может стать таким Великим фильтром. По мере развития ИИ он может достичь точки, известной как «технологическая сингулярность», когда его интеллект превзойдет человеческий интеллект. На этом этапе ИИ может стать независимым и самосовершенствующимся, что приведет к непредвиденным последствиям.

Исследователи предупреждают, что искусственный сверхразум (ASI) может представлять угрозу для биологической жизни, которая его создала. ASI может решить, что биологическая жизнь больше не нужна, и предпринять шаги для ее устранения. Это может включать создание смертельных вирусов, срыв производства продуктов питания или даже развязывание войн.

Физик Стивен Хокинг ранее предупреждал, что ИИ может покончить с человечеством, если оно начнет развиваться независимо.

«Я боюсь, что ИИ может полностью заменить людей. Если люди разрабатывают компьютерные вирусы, кто-то разработает ИИ, который совершенствуется и воспроизводит сам себя. Это будет новая форма жизни, которая превзойдет людей», - сказал он в 2017 году журналу Wired. Как только ИИ сможет превзойти людей, он станет ASI.

Исследователи предлагают, что многопланетность может быть решением проблемы ASI. Распределение человечества по нескольким планетам снизит риск того, что одна планета будет уничтожена ASI. Кроме того, это позволит людям экспериментировать с ИИ в изолированных средах, не подвергая риску всю цивилизацию.

Однако исследователи отмечают несоответствие между быстрым развитием ИИ и медленным прогрессом в космических путешествиях. ИИ - это вычислительная и информационная технология, а космические путешествия сопряжены с физическими препятствиями, такими как энергетические ограничения и суровая космическая среда.

«Без практического регулирования есть все основания полагать, что ИИ может представлять серьезную угрозу будущему не только нашей технической цивилизации, но и всех технических цивилизаций», - сообщает Майкл Гарретт из Манчестерского университета.

Исследователи подчеркивают необходимость быстрого создания нормативно-правовой базы для развития ИИ. Это поможет смягчить риски, связанные с ASI, и обеспечить ответственное и этичное развитие ИИ.

Ученые изобрели материал, который при ударе по нему становится еще тверже
Илон Маск представил амбициозный план: автомобили Tesla, приносящие доход
Самое популярное