С каждым годом человечество делает всё больше шагов вперёд в области медицины и технологий...
Около четырех миллиардов лет назад Марс был похож на Землю. Геологические исследования..
Известные технологические лидеры призывают создателей искусственного интеллекта прекратить подготовку самых мощных систем ИИ как минимум на шесть месяцев. Эксперты ссылаются на «серьезные риски для общества и человечества».
Фото из открытых источников
Илон Маск, Билл Гейтс и сооснователь Apple Стив Возняк подписали письмо, которое затем опубликовал Институт будущего жизни, некоммерческой организацией, поддерживаемой Маском.
Письмо опубликовали после того, как OpenAI анонсировала еще более мощную версию GPT-4, лежащую в основе популярного инструмента чат-ботов AI, ChatGPT.
Данная технология уже была продемонстрирована при составлении судебных исков, сдаче стандартизированных экзаменов и создании рабочего веб-сайта по эскизу, нарисованному от руки.
В письме, которое также было подписано генеральным директором OpenAI, говорилось, что пауза должна распространяться на системы ИИ, «более мощные, чем GPT-4».
В нем также говорилось, что независимые эксперты должны использовать предложенную паузу для совместной разработки и внедрения набора общих протоколов для инструментов ИИ, которые будут безопасными.
«Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять с соразмерной осторожностью и ресурсами», - говорится в письме.
«К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории ИИ оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто, даже их создатели, не может понять, предсказать или надежно контролировать».
Если пауза не будет установлена в ближайшее время, то правительства должны вмешаться и ввести мораторий, говорилось в письме.
Волна общественного внимания к ChatGPT в конце прошлого года помогла возобновить гонку среди технологических компаний по разработке и внедрению аналогичных инструментов ИИ в своих продуктах.
OpenAI, Microsoft и Google являются лидерами в этой гонке, но IBM, Amazon, Baidu и Tencent также актвино работают над аналогичными технологиями.
Эксперты по искусственному интеллекту все больше обеспокоены потенциалом инструментов ИИ для генерации предвзятых ответов, способностью распространять дезинформацию и влиянием на конфиденциальность потребителей.
Эти инструменты также вызвали вопросы о том, как ИИ может заменить некоторые профессии, позволить студентам обманывать и изменить наши отношения с технологиями.
Аналитик ABI Research Лиан Джи Су сказал, что письмо демонстрирует реальные опасения среди технологических лидеров по поводу нерегулируемого использования технологий ИИ.
Однако он назвал части петиции «нелепыми», в том числе просьбу о перерыве в разработке ИИ после GPT-4. Он сказал, что это поможет некоторым людям, подписавшим письмо, сохранить свое доминирование в этой области.
«Корпоративные амбиции и стремление к доминированию часто побеждают этические соображения», - сказал Су. «Я не удивлюсь, если эти организации уже тестируют что-то более продвинутое, чем ChatGPT или [Google] Bard, пока мы это обсуждаем».
С каждым годом человечество делает всё больше шагов вперёд в области медицины и технологий...
Около четырех миллиардов лет назад Марс был похож на Землю. Геологические исследования..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.