Close
19 октября 2024, Суббота
Информационно-познавательный портал. 16+

Сингулярность приближается: как искусственный интеллект изменит наш мир

19.10.2024 Разместил: Редакция 53

Понятие сингулярности, когда машины станут умнее людей, обсуждается на протяжении десятилетий. Однако с развитием алгоритмов машинного обучения и появлением программного обеспечения, способного проходить тест Тьюринга, этот вопрос становится всё более актуальным. Журналисты IFLScience рассуждают о том, насколько близки мы к созданию искусственного общего интеллекта (AGI) и какие риски это может повлечь за собой?

Фото из открытых источников

Современный искусственный интеллект, основанный на больших языковых моделях (LLM), работает не так, как мы привыкли думать. Эти системы не «думают» в человеческом понимании слова. Они просто используют статистику и вероятности, чтобы предсказать, какое слово или буква следуют за предыдущими. Хотя результаты могут быть разумными, они также могут быть ошибочными и даже опасными. Как отмечают эксперты, машина не имеет разума, она лишь имитирует его.

Существуют предположения, что ИИ-системы будущего уже на подходе. Эти алгоритмы, по мнению некоторых специалистов, смогут выполнять множество задач наравне с людьми. Основатель SingularityNET Бен Гертцель на саммите AGI Summit 2024 заявил, что к 2029-2030 годам мощность отдельного компьютера будет сопоставима с вычислительной мощностью человеческого мозга. Если добавить к этому еще 10-15 лет, то один компьютер сможет обладать мощностью всего человеческого общества.

Однако такие оптимистичные прогнозы вызывают вопросы. Критики утверждают, что заявления о скором появлении AGI — это всего лишь попытка раскрутить текущие технологии и создать пузырь, который в конечном итоге лопнет. Известный «отец-основатель ИИ» Джеффри Хинтон считает, что до появления AGI осталось менее 20 лет, в то время как его коллега Йошуа Бенжио предостерегает от поспешных выводов.

Кроме того, необходимо учитывать и потенциальные опасности. Хинтон уволился из Google, выражая опасения по поводу возможных угроз, которые может представлять ИИ. Опрос показал, что треть исследователей ИИ считает, что технологии могут привести к катастрофическим последствиям. Однако сценарий «Терминатора», где машины охотятся на людей, может оказаться не самым вероятным. Опасности могут быть более приземлёнными.

Современные ИИ уже сталкиваются с обвинениями в использовании украденного искусства для обучения. В этом контексте компания OpenAI обратилась к британскому парламенту с просьбой разрешить использование произведений, защищённых авторским правом, что поднимает вопросы о правомерности их обучения. Кроме того, экологические риски, связанные с высоким потреблением ресурсов и углеродным следом, становятся всё более актуальными в условиях меняющегося климата.

Злоупотребление ИИ для создания ложных материалов и распространения дезинформации также вызывает серьёзные опасения. Создание поддельных изображений для пропагандистских целей стало проще простого, и хотя существуют методы их распознавания, с каждым годом это будет становиться всё сложнее.

В условиях отсутствия чётких правил и норм, регулирующих ИИ, важно действовать уже сейчас. Некоторые исследования утверждают, что некачественный контент, созданный ИИ, может привести к созданию ещё более некачественного контента, что в конечном итоге сделает ИИ менее полезным. Возможно, мы ещё не близки к созданию настоящего искусственного интеллекта, но есть риск, что можем оказаться на пути к созданию искусственной глупости.

Ученые использовали древнее японское бумажное искусство в беспроводных технологиях