Учёные Донского государственного технического университета (ДГТУ) вместе со своими..
Физическая активность давно зарекомендовала себя как важный компонент здорового..
Споры о будущем искусственного интеллекта (ИИ) и его потенциальных угрозах для человечества продолжают беспокоить ученых и прочих экспертов. Вопрос о том, представляет ли ИИ экзистенциальную угрозу, становится самым волнующим.
Фото из открытых источников
Недавнее мероприятие, организованное RAND Corporation, привлекло внимание экспертов, собравшихся для изучения экзистенциальных рисков, связанных с ИИ. В ходе обсуждений ученые выразили различные точки зрения на потенциальные угрозы, подчеркивая сложность вопросов безопасности, связанных с развитием этой технологии.
Исследователь Бенджамин Будро подчеркнул, что угрозы, связанные с ИИ, могут накапливаться со временем, подобно изменению климата, и представлять собой медленную катастрофу, угрожающую институтам и возможностям, необходимым для осмысленной жизни.
«Риск, о котором я беспокоюсь, не является внезапным, сиюминутным событием», - сказал Бенджамин Будро. «Это набор нарастающих угроз, которые со временем усугубляются. Как и изменение климата, искусственный интеллект может быть медленной катастрофой, которая уменьшает институты и возможности, необходимые нам для осмысленной жизни».
Старший научный сотрудник RAND Джонатан Уэлберн высказал опасения относительно потенциала ИИ усиливать социальное неравенство и укоренять предвзятости, что может подорвать социальную и экономическую стабильность общества.
«В мире в 2023 году уже был высокий уровень неравенства», - сказал доктор Уэлберн. «Итак, отталкиваясь от этого фундамента, где уже существует высокий уровень концентрации богатства и власти, для меня это потенциальный сценарий наихудшего развития событий».
Директор Центра технологий и политики безопасности RAND Джефф Олстотт подчеркнул возможность использования ИИ в качестве оружия, что вызывает серьезные опасения, сравнимые с разработкой других видов массового уничтожения.
«Биологическое оружие [так случилось] является одним из примеров, когда исторически барьерами были информация и знания. Вам больше не нужно много специализированных материалов или дорогостоящих комплектов оборудования, чтобы добиться разрушительных последствий в виде возникновения пандемий», - объяснил Олстотт. «ИИ может восполнить пробел в знаниях. И био - это лишь один пример. Та же история повторяется с ИИ и химическим оружием, ядерным оружием, кибероружием».
Доктор Нидхи Калра выразила беспокойство относительно возможного усиления негативных тенденций в обществе под влиянием ИИ, указывая на растущее неравенство и расовую неприязнь.
«Для меня ИИ - это подливка масла в огонь», - объяснил Нидхи Калра. «Меня меньше беспокоят риски искусственного интеллекта, чем сами пожары — буквальные пожары изменения климата и потенциальной ядерной войны и фигуральные пожары растущего неравенства доходов и расовой неприязни.»
Из-за недоверия к ИИ исследователь политики RAND доктор Эдвард Гейс более прямо выразил свою озабоченность по поводу внедрения ИИ, заявив: «ИИ угрожает стать усилителем человеческой глупости».
Эксперты подчеркнули, что главным вопросом является не сама технология ИИ, а риски ее возможного использования против самих же людей. Они призвали к проведению независимых исследований и формированию государственной политики, направленной на минимизацию рисков и обеспечение безопасного внедрения ИИ в общество.
Учёные Донского государственного технического университета (ДГТУ) вместе со своими..
Физическая активность давно зарекомендовала себя как важный компонент здорового..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.