Ученые из Кембриджского университета смогли глубже исследовать, как коронавирус воздействует..
Международная команда ученых обнаружила, что китайская гигантская саламандра может..
Развитие искусственного интеллекта (ИИ) стремительно набирает обороты, и мнения ученых расходятся относительно того, когда мы увидим создание общего искусственного интеллекта (AGI), который может превзойти умственные способности человека. Ожидания растут, и многие эксперты уверены, что в ближайшие годы машины смогут решать задачи с уровнем рассуждений, недоступным для большинства людей.
Фото из открытых источников
AGI представляет собой область исследований, целью которой является создание компьютерных систем, обладающих способностям, аналогичными человеческим. Эти системы могут не только выполнять конкретные задачи, как это делают современные узкие ИИ, но и адаптироваться, обучаться и решать проблемы в различных областях без специального обучения. Впервые термин «общий искусственный интеллект» был введен в сборнике эссе, изданном в 2007 году под редакцией Бена Гертцеля и Кассио Пенначина. С тех пор концепция AGI прочно укоренилась в научной фантастике и реальных исследованиях.
Современные технологии, такие как ChatGPT и алгоритмы машинного обучения, уже демонстрируют значительные успехи в определенных задачах — от распознавания изображений до генерации контента. Однако они ограничены рамками своей программы. В отличие от них, AGI обещает возможности, которые могут кардинально изменить подходы к решению проблем и инновациям.
Генеральный директор OpenAI Сэм Альтман подчеркивает возможные преимущества AGI: «Мы можем представить мир, в котором у каждого из нас есть доступ к помощи практически с любой когнитивной задачей».
Это может привести к увеличению ресурсов, экономическому росту и новым научным открытиям. Однако с этим потенциалом приходят и серьезные экзистенциальные риски.
Известный предприниматель Илон Маск предостерегает о «несогласованности» целей AGI с целями человека, а также о потенциальной угрозе для существования человечества. Исследования показывают, что существует вероятность выхода AGI из-под контроля, разработки небезопасных целей и создания морально неприемлемых систем. Неудивительно, что эти опасения вызывают активные дебаты среди исследователей.
Несмотря на противоречивые мнения о том, возможно ли создание AGI, большинство опросов среди специалистов предполагают, что это может произойти до конца XXI века. Однако последние оценки сокращают временные рамки до 5-20 лет. Некоторые эксперты, в числе которых Рэй Курцвейл, даже утверждают, что мы можем ожидать появления AGI уже в этом десятилетии, что приведет к технологической сингулярности — моменту, когда ИИ станет настолько мощным, что его развитие выйдет за пределы человеческого контроля.
Курцвейл предсказывает, что к 2030-м годам мы увидим возникновение сверхразума, а к 2045 году люди смогут напрямую подключать свои мозги к ИИ, что значительно расширит человеческий интеллект и сознание.
Как будет выглядеть наше общество в эпоху общего искусственного интеллекта? Ответ на этот вопрос зависит от того, насколько мы разумно сможем управлять этими новыми технологиями и интегрировать их в нашу повседневную жизнь.
Ученые из Кембриджского университета смогли глубже исследовать, как коронавирус воздействует..
Международная команда ученых обнаружила, что китайская гигантская саламандра может..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.