Close
05 мая 2025, Понедельник
Информационно-познавательный портал. 16+

Каждый второй россиянин может стать жертвой дипфейков до конца года, предупреждают эксперты

05.05.2025 Разместил: Редакция 102

По данным экспертов в области искусственного интеллекта, до конца 2025 года каждый второй россиянин может столкнуться с атаками с использованием дипфейков. В интервью «Известиям» специалисты отметили, что на сегодняшний день основными формами таких атак являются голосовые сообщения и видеозвонки. Однако уже в 2026 году ожидается рост случаев, когда злоумышленники будут вести разговоры, имитируя знакомые голоса.

Фото из открытых источников

По информации пресс-службы MTS AI, лишь два года назад с подобными атаками сталкивались 10% пользователей интернета. К концу этого года этот показатель может вырасти до 50%. В 2024–2025 годах основное внимание мошенников будет сосредоточено на фейковых видео и голосовых сообщениях, но уже в 2026 году они смогут в реальном времени имитировать разговоры с близкими, например, «дочерью, попавшей в беду» или «другом, просящим о помощи».

Специалисты подчеркивают, что современные дипфейки становятся всё более сложными для распознавания, даже для опытных пользователей. Видеосообщения и голосовые сообщения в мессенджерах представляют собой большую угрозу, так как не обладают защитными механизмами, которые есть у телефонных звонков. Проверить источник таких сообщений невозможно, что делает их особенно привлекательными для мошенников.

Технологии создания дипфейков значительно усовершенствовались. Если раньше для создания убедительных подделок требовались значительные навыки и время, то теперь это может сделать практически любой. Качество фейков возросло, и отличить их от настоящих записей становится всё сложнее.

Ранее телеканал РЕН ТВ сообщил о случае, когда мошенники обманули пожилого москвича на 1,5 миллиона рублей. Мужчина получил звонок от поддельного «секретаря мэра Москвы», который предупредил его о предстоящем разговоре с Сергеем Собяниным. На видеосвязи собеседник действительно походил на мэра и убедил пенсионера, что его счета были задействованы в хищении государственных средств. После этого мужчина, следуя указаниям, перевел деньги, полагая, что сотрудничает с ФСБ.

Тем временем дипфейк-технологии поднялись на новый уровень: теперь изменение лица в режиме реального времени доступно даже при слабом освещении.

Создатель популярной нейросети Deep Live Cam представил обновлённую версию своего детища, которое позволяет мгновенно менять внешность пользователей прямо во время видеозвонка или стриминга. Ранее технология демонстрировала ограниченную работу при плохом освещении, однако последнее обновление успешно решает эту проблему.

Теперь программа способна эффективно функционировать даже в условиях минимальной освещённости, например, под светом обычного фонарика. Благодаря этому нововведению пользователи смогут уверенно применять дипфейки независимо от условий съёмки, будь то вечерний звонок друзьям или ночной игровой стрим.

Ученые пытаются раскрыть тайну сознания: что уже известно?
Самое популярное