Close
22 ноября 2024, Пятница
Информационно-познавательный портал. 16+

Осторожно, дипфейки: как один видеоролик способен обрушить экономику

29.03.2021 Разместил: Редакция / Источник: REN.TV 2723

Сколько лайков под фотографиями может собрать симпатичная японка на мощном спортбайке? Уж точно больше, чем 50-летний японец. Поэтому мужчина полгода выдавал себя за девушку, лицо которой создано нейросетью. Как и у этой корейской певицы. Поп-дива – виртуальная. Существует благодаря той же технологии, которая позволяет "оживлять" своих давно ушедших родственников. Крайне реалистично они двигают глазами и улыбаются.

Фото из открытых источников

"Возможности искусственного интеллекта позволяют нам загружать неподвижные изображения ваших родственников и они моментально обретают цвет и начинают двигаться", - говорит Рафи Мендельсон, PR-директор компании MyHeritage.

Создатели сервиса сначала сами себя сняли на видео, а затем научили машины – менять их лица на лица с фотографий. И это, пожалуй, самое безобидное применение технологии "дипфейк". Но все идет к тому, что скоро отличить правду от вымысла будет невозможно. В основе дипфейка – две нейронных сети.

"Одна часть нейросети обучается на фотографиях – большом количестве фотографий, а другая – создает лицо искусственно и все доводится до того момента, пока одна нейросетка не начнет ошибаться, принимая лицо за реальность", - объяснил директор по продуктам компании-разработчика алгоритмов анализа видео Заур Абуталимов.

На базе сложного алгоритма созданы десятки приложений. Пользователи развлекаются, меняя лица любимых киногероев. Тут подделка видна сразу. А вот Тома Круза, играющего в гольф и жующего леденец, не отличить от настоящего.

"Я работал с актером, который пародирует Тома Круза. Мы сделали эти видео ради шутки и вывесили в TikTok. За два дня - 48 тысяч подписчиков и почти 3 миллиона просмотров", - рассказал Крис Уме, создатель дипфейк-видео с Томом Крузом.

Любую кинозвезду теперь можно просто нарисовать. В челябинской студии как раз оказывают такие услуги.

"Наш основной целевой клиент - это кинокомпании, рекламное агентство, бренды, которые хотят воссоздать какого-то персонажа в своем контенте. Способность генерировать того или иного персонажа, видео напрямую, не приглашая его к съемкам, – это замечательная потенциальная возможность для бизнеса привлечь того или иного актера", - считает Мария Чмир, генеральный директор и сооснователь компании Deep Cake.

А если вложить в уста знаменитому актеру провокационные заявления, можно легко разрушить его карьеру. В современном Голливуде это проще простого.

Вот представьте, выходит на сцену Ди Каприо и со своим фирменным прищуром говорит: "В моем трейлере побывало больше молодых актрис, чем на кожаном диване в кабинете Харви Вайшнтейна". И все, репутации голливудской звезды – конец.

Но первыми жертвами дипфейков стали знаменитости-женщины. В Сети множество порнороликов с участием звезд, которые ни в чем таком никогда не снимались. Видимо, из кинопроизводства вообще скоро уйдет такое понятие, как съемочный процесс: в эпоху пост-правды останется только пост-продакшен.

"В больших фильмах почти в каждом кадре есть компьютерная графика., от полностью нарисованных кадров до добавления каких-то элементов. Фильмы типа "Еравитации" можно назвать анимационным кино", - объясняет Арман Яхин, генеральный директор студии компьютерной графики.

И если раньше такую графику рисовали исключительно профессионалы, то сегодня инструменты для замены лиц есть в любом смартфоне. А значит, не только кино, но и любое видео можно искусно отредактировать.

Новые технологии быстро освоили мошенники. Аналитики совместно с институтом ООН по вопросам преступности и правосудия и Европолом подготовили доклад "Злонамеренное использование и злоупотребление искусственным интеллектом". И там дипфейки – одна из главных угроз. Самая распространенная схема – шантаж и угроза опубликовать некий непристойный компромат. В главной роли – ваш цифровой двойник.

"Если вы активно делитесь вашим портретами в социальных сетях, то не удивляйтесь, что через какое-то время появится видеоролик с вашим участием, который вы не снимали", - говорит Михаил Кондрашин, технический директор аналитической компании.

Предтеча видеодипфейков – алгоритмы распознавания лиц. Они тоже шагнули далеко вперед. Технология глубокого анализа видеоданных уже используется в бизнесе. В магазинах висят камеры, которые не только узнают покупателей в лицо, но и считывают эмоции. Чтобы покупатели знали, нравится нам товар или цена на него или нет.

С помощью своих биометрических данных - лица и голоса - уже сейчас можно снимать деньги в банках, расплачиваться за товары в магазинах, брать кредиты. Но что если лицо будет поддельное?

"Если мы по фотографиям восстанавливаем трехмерную модель лица, мы можем синтезировать изображение. Изображение посылается в банк, таким образом подтверждается операция. А дипфейк позволяет это делать без участия человека", - рассказал директор по методологии и стандартизации Positive technologies Дмитрий Кузнецов.

А еще мошенники могут сыграть по-крупному: заранее скупить акции какой-нибудь крупной компании и сделать сообщение от лица ее директора, которое повлияет на их стоимость.

Мировую экономику можно обрушить одним видеороликом. На экране появляется Илон Макс и заявляет: концепция электромобилей нежизнеспособна. Будем ездить на бензине. А еще – я перевожу все свои активы в китайские юани. Следите за движениями биржевых котировок.

Но главное - теперь в уста мировым лидерам можно вложить любые заявления, которые будут развязывать войны и разрушать экономики.

К трибуне с президентской печатью выходит якобы глава Соединенных Штатов Америки. И признается: коронавирусная инфекция разработана в секретной американской лаборатории. Ах да. И еще мы фальсифицировали выборы. На самом деле выиграл Трамп. Технология дипфейк – в действии. И, как следствие, масштабный политический кризис.

Государственные деятели определенно главная цель дипфейк-террористов. Во-первых, их относительно просто подделать: есть терабайты качественных видеозаписей, откуда нейросети могут взять изображение и голос. Во-вторых, именно политиков имеет смысл шантажировать сгенерированным компроматом. И, в-третьих, их слова могут вызвать эффект разорвавшейся бомбы – в буквальном смысле слова.

"Такого рода фейк, вызвать и нанесение ракетного удара по суверенной стране, вот так, как, допустим, по результатам тех роликов, которые инсценировали усилиями команды белые каски, точно так же можно и уже в домашних условиях", - говорит Андрей Кошкин, заведующий кафедрой социологии и политологии РЭУ им. Плеханова.

А главное, отличить дипфейк от оригинального видео что на глаз, что с помощью специальных программ – с каждым днем все сложнее.

"Как только появятся инструменты по распознаванию дипфейков, тут же дипфейки сделают качественный скачок вперед. Они закроют те уязвимости, за которые цепляются алгоритмы", - считает Станислав Ашманов, предприниматель, специалист по глубоким нейронным сетям и машинному обучению.
"Самый простой момент, как можно распознать фейковую информацию, в том числе видео- или аудио-дипфейк, – это понять, адекватно ли тот месседж, который транслирует этот объект", - отметил генеральный директор АНО "Цифровые платформы" Арсений Шельцин.

Спасение от искусственного интеллекта, оказавшегося не в тех руках, – свой собственный ясный разум и критическое мышление, которые по мере погружения в "дипфейковый новый мир", где нельзя верить собственным глазам, сохранять все сложнее.

Гипноз меняет способ обработки информации мозгом
Космонавт сфотографировал с борта МКС застрявший в Суэцком канале контейнеровоз
Самое популярное