В Японии стартовали клинические испытания нового лекарства, которое, по словам стоматологов,..
Старший преподаватель психологии Стив Тейлор из Университета Лидс Беккет предлагает..
Современные технологии продолжают удивлять нас своими возможностями. В новом исследовании, проведённом учёными из Google и Стэнфорда, выяснилось, что двухчасовой разговор с искусственным интеллектом позволяет создать точную копию человеческой личности. Результаты этого исследования опубликованы 15 ноября на сервере препринтов arXiv.
Фото из открытых источников
Для достижения столь впечатляющего результата исследователи разработали так называемых «симуляционных агентов» — ИИ-реплики реальных людей. Всего было создано 1052 таких агента на основе интервью с участниками проекта. Интервью длились около двух часов, в течение которых участники делились подробностями своей жизни, ценностями и взглядами на различные социальные вопросы. На основании этих данных была обучена генеративная модель ИИ, способная имитировать человеческое поведение.
Чтобы проверить точность созданных копий, участникам предложили пройти серию личностных тестов, социальных опросов и логических игр. Через две недели они повторили этот процесс, после чего результаты сравнили с результатами их ИИ-двойников. Оказалось, что симуляционные агенты совпадали с реальными людьми в среднем на 85%!
По мнению учёных, подобные модели ИИ могут найти применение в самых разнообразных сферах. Например, они могут использоваться для оценки эффективности медицинских программ, анализа общественного мнения перед выпуском нового продукта или даже для моделирования реакций общества на значимые события. Такие эксперименты зачастую трудно или дорого проводить с участием живых людей, поэтому использование ИИ открывает новые горизонты для научных исследований.
«Модели ИИ, способные воспроизводить человеческие взгляды и поведение, позволят ученым в лабораторных условиях тестировать множество гипотез и вмешательств», — отмечают авторы статьи.
Кроме того, симуляция поможет глубже понять, как различные факторы влияют на людей, и какие механизмы лежат в основе социального взаимодействия.
Тем не менее, несмотря на все преимущества новой технологии, учёные предупреждают о возможных рисках её использования. Как и любые другие инструменты, ИИ может стать оружием в руках злоумышленников, которые смогут создавать фальшивые профили, манипулировать информацией и вводить людей в заблуждение. Эксперты считают, что необходимо контролировать развитие подобных технологий и применять их исключительно в благих целях.
В Японии стартовали клинические испытания нового лекарства, которое, по словам стоматологов,..
Старший преподаватель психологии Стив Тейлор из Университета Лидс Беккет предлагает..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.