На предстоящей в 2025 году выставке Osaka Kansai Expo компания Science Co. представит модернизированный..
В Индийском океане скрывается огромная «гравитационная дыра», в которой сила тяжести..
Большие языковые модели (LLM), способные генерировать текст, изображения и даже видео, вызвали значительные изменения в различных отраслях. Однако вместе с преимуществами появились и серьёзные проблемы, особенно связанные с ростом преступлений, связанных с глубокими подделками.
Фото из открытых источников
Глубокие подделки, или deepfake, представляют собой контент, созданный с использованием искусственного интеллекта, который имитирует реальных людей настолько точно, что его трудно отличить от подлинного. Эта технология бросает вызов стандартам безопасности в Интернете и ставит под вопрос этические нормы использования ИИ.
Регулирующие органы по всему миру активно пытаются сдержать всплеск мошенничества, вызванного использованием генеративного ИИ и LLM. Недавно The Verge сообщила, что Microsoft призывает Конгресс США принять срочные меры для борьбы с подделками, созданными с помощью искусственного интеллекта. Вице-председатель и президент Microsoft Брэд Смит подчеркнул необходимость защиты людей от мошенничества.
Microsoft предлагает создать новую правовую базу для судебного преследования мошенников и злоупотреблений, связанных с использованием искусственного интеллекта.
Однако, как признают эксперты, законодательство всегда будет иметь серые зоны. Сложно провести чёткую грань между контентом, созданным для развлечения, и тем, что используется для мошеннических действий. Особенно остро это проявляется в случае с поддельными голосами, которые труднее распознать, чем изображения и видео.
В Китае проблема поддельных голосов становится всё более актуальной. Вице-президент и руководитель Отдела больших данных и ИИ компании FinVolution Group Лей Чен отметил, что «современные технологии обнаружения подделки голоса отстают от технологий синтеза голоса». Ведущая китайская компания в области ИИ и финтеха FinVolution активно работает над выявлением поддельных голосов и автоматизацией рабочих процессов.
Из-за множества лазеек в защите личной информации многие китайцы ежедневно сталкиваются с мошенническими звонками. Мошенники используют синтезированные голоса для кражи личных данных и изменения банковской информации пользователей в злонамеренных целях.
Однако, несмотря на все трудности, специалисты по искусственному интеллекту не сдаются. В конце июля FinVolution провела 9-й Глобальный конкурс по науке о данных, в котором участникам предложили разработать модели для обнаружения поддельных голосов. Специалист по алгоритмам Цян Лю отметил, что смешивание синтезированных голосов с реальными создало множество сложностей, но эти тесты имеют огромную практическую ценность.
В эпоху LLM обнаружение поддельных голосов становится всё более сложной задачей.
«Обнаружение не имеет конечной цели; пока генеративный ИИ не достигнет своего пика, усилия по обнаружению будут продолжаться», - заключил Чен.
Эксперты считают, что в ближайшие годы мы можем ожидать принятия более строгих законов и нормативных актов, касающихся ИИ, а также более активное участие технологических платформ в саморегулировании.
На предстоящей в 2025 году выставке Osaka Kansai Expo компания Science Co. представит модернизированный..
В Индийском океане скрывается огромная «гравитационная дыра», в которой сила тяжести..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.