Ученые обнаружили подводный кратер у побережья Гвинеи в Западной Африке, который,..
Представьте, что вы разговариваете со своим будущим «я», 60-летним и мудрым, предлагающим..
Известные технологические лидеры призывают создателей искусственного интеллекта прекратить подготовку самых мощных систем ИИ как минимум на шесть месяцев. Эксперты ссылаются на «серьезные риски для общества и человечества».
Фото из открытых источников
Илон Маск, Билл Гейтс и сооснователь Apple Стив Возняк подписали письмо, которое затем опубликовал Институт будущего жизни, некоммерческой организацией, поддерживаемой Маском.
Письмо опубликовали после того, как OpenAI анонсировала еще более мощную версию GPT-4, лежащую в основе популярного инструмента чат-ботов AI, ChatGPT.
Данная технология уже была продемонстрирована при составлении судебных исков, сдаче стандартизированных экзаменов и создании рабочего веб-сайта по эскизу, нарисованному от руки.
В письме, которое также было подписано генеральным директором OpenAI, говорилось, что пауза должна распространяться на системы ИИ, «более мощные, чем GPT-4».
В нем также говорилось, что независимые эксперты должны использовать предложенную паузу для совместной разработки и внедрения набора общих протоколов для инструментов ИИ, которые будут безопасными.
«Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять с соразмерной осторожностью и ресурсами», - говорится в письме.
«К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории ИИ оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто, даже их создатели, не может понять, предсказать или надежно контролировать».
Если пауза не будет установлена в ближайшее время, то правительства должны вмешаться и ввести мораторий, говорилось в письме.
Волна общественного внимания к ChatGPT в конце прошлого года помогла возобновить гонку среди технологических компаний по разработке и внедрению аналогичных инструментов ИИ в своих продуктах.
OpenAI, Microsoft и Google являются лидерами в этой гонке, но IBM, Amazon, Baidu и Tencent также актвино работают над аналогичными технологиями.
Эксперты по искусственному интеллекту все больше обеспокоены потенциалом инструментов ИИ для генерации предвзятых ответов, способностью распространять дезинформацию и влиянием на конфиденциальность потребителей.
Эти инструменты также вызвали вопросы о том, как ИИ может заменить некоторые профессии, позволить студентам обманывать и изменить наши отношения с технологиями.
Аналитик ABI Research Лиан Джи Су сказал, что письмо демонстрирует реальные опасения среди технологических лидеров по поводу нерегулируемого использования технологий ИИ.
Однако он назвал части петиции «нелепыми», в том числе просьбу о перерыве в разработке ИИ после GPT-4. Он сказал, что это поможет некоторым людям, подписавшим письмо, сохранить свое доминирование в этой области.
«Корпоративные амбиции и стремление к доминированию часто побеждают этические соображения», - сказал Су. «Я не удивлюсь, если эти организации уже тестируют что-то более продвинутое, чем ChatGPT или [Google] Bard, пока мы это обсуждаем».
Ученые обнаружили подводный кратер у побережья Гвинеи в Западной Африке, который,..
Представьте, что вы разговариваете со своим будущим «я», 60-летним и мудрым, предлагающим..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.