Close
09 декабря 2024, Понедельник
Информационно-познавательный портал. 16+

Искусственный интеллект и глубокие подделки, которые выявить становится всё сложнее

02.08.2024 Разместил: Редакция 2343

Большие языковые модели (LLM), способные генерировать текст, изображения и даже видео, вызвали значительные изменения в различных отраслях. Однако вместе с преимуществами появились и серьёзные проблемы, особенно связанные с ростом преступлений, связанных с глубокими подделками.

Фото из открытых источников

Глубокие подделки, или deepfake, представляют собой контент, созданный с использованием искусственного интеллекта, который имитирует реальных людей настолько точно, что его трудно отличить от подлинного. Эта технология бросает вызов стандартам безопасности в Интернете и ставит под вопрос этические нормы использования ИИ.

Регулирующие органы по всему миру активно пытаются сдержать всплеск мошенничества, вызванного использованием генеративного ИИ и LLM. Недавно The Verge сообщила, что Microsoft призывает Конгресс США принять срочные меры для борьбы с подделками, созданными с помощью искусственного интеллекта. Вице-председатель и президент Microsoft Брэд Смит подчеркнул необходимость защиты людей от мошенничества.

Microsoft предлагает создать новую правовую базу для судебного преследования мошенников и злоупотреблений, связанных с использованием искусственного интеллекта.

Однако, как признают эксперты, законодательство всегда будет иметь серые зоны. Сложно провести чёткую грань между контентом, созданным для развлечения, и тем, что используется для мошеннических действий. Особенно остро это проявляется в случае с поддельными голосами, которые труднее распознать, чем изображения и видео.

В Китае проблема поддельных голосов становится всё более актуальной. Вице-президент и руководитель Отдела больших данных и ИИ компании FinVolution Group Лей Чен отметил, что «современные технологии обнаружения подделки голоса отстают от технологий синтеза голоса».  Ведущая китайская компания в области ИИ и финтеха FinVolution активно работает над выявлением поддельных голосов и автоматизацией рабочих процессов.

Из-за множества лазеек в защите личной информации многие китайцы ежедневно сталкиваются с мошенническими звонками. Мошенники используют синтезированные голоса для кражи личных данных и изменения банковской информации пользователей в злонамеренных целях.

Однако, несмотря на все трудности, специалисты по искусственному интеллекту не сдаются. В конце июля FinVolution провела 9-й Глобальный конкурс по науке о данных, в котором участникам предложили разработать модели для обнаружения поддельных голосов. Специалист по алгоритмам Цян Лю отметил, что смешивание синтезированных голосов с реальными создало множество сложностей, но эти тесты имеют огромную практическую ценность.

В эпоху LLM обнаружение поддельных голосов становится всё более сложной задачей.

«Обнаружение не имеет конечной цели; пока генеративный ИИ не достигнет своего пика, усилия по обнаружению будут продолжаться», - заключил Чен.

Эксперты считают, что в ближайшие годы мы можем ожидать принятия более строгих законов и нормативных актов, касающихся ИИ, а также более активное участие технологических платформ в саморегулировании.

В Китае разработали робота с человекоподобными чертами лица
Ученые предложили использовать ИИ для проектирования ядерных реакторов
Самое популярное