Когда мы думаем об Антарктиде, первое, что приходит на ум, — бескрайние ледяные поля,..
Представьте себе: у вас есть возможность взять обычный смартфон и превратить его в..
В новой статье, опубликованной в Acta Astronautica, исследователи выдвигают гипотезу, согласно которой быстрое развитие искусственного интеллекта (ИИ) может стать «Великим фильтром», препятствующим развитию межпланетных и межзвездных цивилизаций.
Фото из открытых источников
Парадокс Ферми - это несоответствие между высокой вероятностью существования развитых цивилизаций во Вселенной и отсутствием доказательств их существования. Одна из теорий, объясняющих этот парадокс, - «Великий фильтр». Великий фильтр - это гипотетическое событие или ситуация, которая препятствует становлению разумной жизни межпланетной или межзвездной.
Исследователи предполагают, что быстрое развитие ИИ может стать таким Великим фильтром. По мере развития ИИ он может достичь точки, известной как «технологическая сингулярность», когда его интеллект превзойдет человеческий интеллект. На этом этапе ИИ может стать независимым и самосовершенствующимся, что приведет к непредвиденным последствиям.
Исследователи предупреждают, что искусственный сверхразум (ASI) может представлять угрозу для биологической жизни, которая его создала. ASI может решить, что биологическая жизнь больше не нужна, и предпринять шаги для ее устранения. Это может включать создание смертельных вирусов, срыв производства продуктов питания или даже развязывание войн.
Физик Стивен Хокинг ранее предупреждал, что ИИ может покончить с человечеством, если оно начнет развиваться независимо.
«Я боюсь, что ИИ может полностью заменить людей. Если люди разрабатывают компьютерные вирусы, кто-то разработает ИИ, который совершенствуется и воспроизводит сам себя. Это будет новая форма жизни, которая превзойдет людей», - сказал он в 2017 году журналу Wired. Как только ИИ сможет превзойти людей, он станет ASI.
Исследователи предлагают, что многопланетность может быть решением проблемы ASI. Распределение человечества по нескольким планетам снизит риск того, что одна планета будет уничтожена ASI. Кроме того, это позволит людям экспериментировать с ИИ в изолированных средах, не подвергая риску всю цивилизацию.
Однако исследователи отмечают несоответствие между быстрым развитием ИИ и медленным прогрессом в космических путешествиях. ИИ - это вычислительная и информационная технология, а космические путешествия сопряжены с физическими препятствиями, такими как энергетические ограничения и суровая космическая среда.
«Без практического регулирования есть все основания полагать, что ИИ может представлять серьезную угрозу будущему не только нашей технической цивилизации, но и всех технических цивилизаций», - сообщает Майкл Гарретт из Манчестерского университета.
Исследователи подчеркивают необходимость быстрого создания нормативно-правовой базы для развития ИИ. Это поможет смягчить риски, связанные с ASI, и обеспечить ответственное и этичное развитие ИИ.
Когда мы думаем об Антарктиде, первое, что приходит на ум, — бескрайние ледяные поля,..
Представьте себе: у вас есть возможность взять обычный смартфон и превратить его в..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.