Новое исследование, проведенное учеными из Кембриджского университета, ставит под..
2023 год стал настоящим испытанием для планеты: температура на Земле поднялась на 1,2°C..
Понятие сингулярности, когда машины станут умнее людей, обсуждается на протяжении десятилетий. Однако с развитием алгоритмов машинного обучения и появлением программного обеспечения, способного проходить тест Тьюринга, этот вопрос становится всё более актуальным. Журналисты IFLScience рассуждают о том, насколько близки мы к созданию искусственного общего интеллекта (AGI) и какие риски это может повлечь за собой?
Фото из открытых источников
Современный искусственный интеллект, основанный на больших языковых моделях (LLM), работает не так, как мы привыкли думать. Эти системы не «думают» в человеческом понимании слова. Они просто используют статистику и вероятности, чтобы предсказать, какое слово или буква следуют за предыдущими. Хотя результаты могут быть разумными, они также могут быть ошибочными и даже опасными. Как отмечают эксперты, машина не имеет разума, она лишь имитирует его.
Существуют предположения, что ИИ-системы будущего уже на подходе. Эти алгоритмы, по мнению некоторых специалистов, смогут выполнять множество задач наравне с людьми. Основатель SingularityNET Бен Гертцель на саммите AGI Summit 2024 заявил, что к 2029-2030 годам мощность отдельного компьютера будет сопоставима с вычислительной мощностью человеческого мозга. Если добавить к этому еще 10-15 лет, то один компьютер сможет обладать мощностью всего человеческого общества.
Однако такие оптимистичные прогнозы вызывают вопросы. Критики утверждают, что заявления о скором появлении AGI — это всего лишь попытка раскрутить текущие технологии и создать пузырь, который в конечном итоге лопнет. Известный «отец-основатель ИИ» Джеффри Хинтон считает, что до появления AGI осталось менее 20 лет, в то время как его коллега Йошуа Бенжио предостерегает от поспешных выводов.
Кроме того, необходимо учитывать и потенциальные опасности. Хинтон уволился из Google, выражая опасения по поводу возможных угроз, которые может представлять ИИ. Опрос показал, что треть исследователей ИИ считает, что технологии могут привести к катастрофическим последствиям. Однако сценарий «Терминатора», где машины охотятся на людей, может оказаться не самым вероятным. Опасности могут быть более приземлёнными.
Современные ИИ уже сталкиваются с обвинениями в использовании украденного искусства для обучения. В этом контексте компания OpenAI обратилась к британскому парламенту с просьбой разрешить использование произведений, защищённых авторским правом, что поднимает вопросы о правомерности их обучения. Кроме того, экологические риски, связанные с высоким потреблением ресурсов и углеродным следом, становятся всё более актуальными в условиях меняющегося климата.
Злоупотребление ИИ для создания ложных материалов и распространения дезинформации также вызывает серьёзные опасения. Создание поддельных изображений для пропагандистских целей стало проще простого, и хотя существуют методы их распознавания, с каждым годом это будет становиться всё сложнее.
В условиях отсутствия чётких правил и норм, регулирующих ИИ, важно действовать уже сейчас. Некоторые исследования утверждают, что некачественный контент, созданный ИИ, может привести к созданию ещё более некачественного контента, что в конечном итоге сделает ИИ менее полезным. Возможно, мы ещё не близки к созданию настоящего искусственного интеллекта, но есть риск, что можем оказаться на пути к созданию искусственной глупости.
Новое исследование, проведенное учеными из Кембриджского университета, ставит под..
2023 год стал настоящим испытанием для планеты: температура на Земле поднялась на 1,2°C..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.