В новой статье, опубликованной в Acta Astronautica, исследователи выдвигают гипотезу, согласно которой быстрое развитие искусственного интеллекта (ИИ) может стать «Великим фильтром», препятствующим развитию межпланетных и межзвездных цивилизаций.
Эксперты назвали экзистенциальные риски, связанные с внедрением искусственного интеллекта
Споры о будущем искусственного интеллекта (ИИ) и его потенциальных угрозах для человечества продолжают беспокоить ученых и прочих экспертов. Вопрос о том, представляет ли ИИ экзистенциальную угрозу, становится самым волнующим.
Фото из открытых источников
Недавнее мероприятие, организованное RAND Corporation, привлекло внимание экспертов, собравшихся для изучения экзистенциальных рисков, связанных с ИИ. В ходе обсуждений ученые выразили различные точки зрения на потенциальные угрозы, подчеркивая сложность вопросов безопасности, связанных с развитием этой технологии.
Исследователь Бенджамин Будро подчеркнул, что угрозы, связанные с ИИ, могут накапливаться со временем, подобно изменению климата, и представлять собой медленную катастрофу, угрожающую институтам и возможностям, необходимым для осмысленной жизни.
«Риск, о котором я беспокоюсь, не является внезапным, сиюминутным событием», - сказал Бенджамин Будро. «Это набор нарастающих угроз, которые со временем усугубляются. Как и изменение климата, искусственный интеллект может быть медленной катастрофой, которая уменьшает институты и возможности, необходимые нам для осмысленной жизни».
Старший научный сотрудник RAND Джонатан Уэлберн высказал опасения относительно потенциала ИИ усиливать социальное неравенство и укоренять предвзятости, что может подорвать социальную и экономическую стабильность общества.
«В мире в 2023 году уже был высокий уровень неравенства», - сказал доктор Уэлберн. «Итак, отталкиваясь от этого фундамента, где уже существует высокий уровень концентрации богатства и власти, для меня это потенциальный сценарий наихудшего развития событий».
Директор Центра технологий и политики безопасности RAND Джефф Олстотт подчеркнул возможность использования ИИ в качестве оружия, что вызывает серьезные опасения, сравнимые с разработкой других видов массового уничтожения.
«Биологическое оружие [так случилось] является одним из примеров, когда исторически барьерами были информация и знания. Вам больше не нужно много специализированных материалов или дорогостоящих комплектов оборудования, чтобы добиться разрушительных последствий в виде возникновения пандемий», - объяснил Олстотт. «ИИ может восполнить пробел в знаниях. И био - это лишь один пример. Та же история повторяется с ИИ и химическим оружием, ядерным оружием, кибероружием».
Доктор Нидхи Калра выразила беспокойство относительно возможного усиления негативных тенденций в обществе под влиянием ИИ, указывая на растущее неравенство и расовую неприязнь.
«Для меня ИИ - это подливка масла в огонь», - объяснил Нидхи Калра. «Меня меньше беспокоят риски искусственного интеллекта, чем сами пожары — буквальные пожары изменения климата и потенциальной ядерной войны и фигуральные пожары растущего неравенства доходов и расовой неприязни.»
Из-за недоверия к ИИ исследователь политики RAND доктор Эдвард Гейс более прямо выразил свою озабоченность по поводу внедрения ИИ, заявив: «ИИ угрожает стать усилителем человеческой глупости».
Эксперты подчеркнули, что главным вопросом является не сама технология ИИ, а риски ее возможного использования против самих же людей. Они призвали к проведению независимых исследований и формированию государственной политики, направленной на минимизацию рисков и обеспечение безопасного внедрения ИИ в общество.
‹ Назад | Вперед › |