Возможно, в недалеком будущем мы не только будем искать жизнь на других планетах, но..
В эпоху стремительного развития технологий, когда искусственный интеллект (ИИ) проникает..
Сколько лайков под фотографиями может собрать симпатичная японка на мощном спортбайке? Уж точно больше, чем 50-летний японец. Поэтому мужчина полгода выдавал себя за девушку, лицо которой создано нейросетью. Как и у этой корейской певицы. Поп-дива – виртуальная. Существует благодаря той же технологии, которая позволяет "оживлять" своих давно ушедших родственников. Крайне реалистично они двигают глазами и улыбаются.
Фото из открытых источников
"Возможности искусственного интеллекта позволяют нам загружать неподвижные изображения ваших родственников и они моментально обретают цвет и начинают двигаться", - говорит Рафи Мендельсон, PR-директор компании MyHeritage.
Создатели сервиса сначала сами себя сняли на видео, а затем научили машины – менять их лица на лица с фотографий. И это, пожалуй, самое безобидное применение технологии "дипфейк". Но все идет к тому, что скоро отличить правду от вымысла будет невозможно. В основе дипфейка – две нейронных сети.
"Одна часть нейросети обучается на фотографиях – большом количестве фотографий, а другая – создает лицо искусственно и все доводится до того момента, пока одна нейросетка не начнет ошибаться, принимая лицо за реальность", - объяснил директор по продуктам компании-разработчика алгоритмов анализа видео Заур Абуталимов.
На базе сложного алгоритма созданы десятки приложений. Пользователи развлекаются, меняя лица любимых киногероев. Тут подделка видна сразу. А вот Тома Круза, играющего в гольф и жующего леденец, не отличить от настоящего.
"Я работал с актером, который пародирует Тома Круза. Мы сделали эти видео ради шутки и вывесили в TikTok. За два дня - 48 тысяч подписчиков и почти 3 миллиона просмотров", - рассказал Крис Уме, создатель дипфейк-видео с Томом Крузом.
Любую кинозвезду теперь можно просто нарисовать. В челябинской студии как раз оказывают такие услуги.
"Наш основной целевой клиент - это кинокомпании, рекламное агентство, бренды, которые хотят воссоздать какого-то персонажа в своем контенте. Способность генерировать того или иного персонажа, видео напрямую, не приглашая его к съемкам, – это замечательная потенциальная возможность для бизнеса привлечь того или иного актера", - считает Мария Чмир, генеральный директор и сооснователь компании Deep Cake.
А если вложить в уста знаменитому актеру провокационные заявления, можно легко разрушить его карьеру. В современном Голливуде это проще простого.
Вот представьте, выходит на сцену Ди Каприо и со своим фирменным прищуром говорит: "В моем трейлере побывало больше молодых актрис, чем на кожаном диване в кабинете Харви Вайшнтейна". И все, репутации голливудской звезды – конец.
Но первыми жертвами дипфейков стали знаменитости-женщины. В Сети множество порнороликов с участием звезд, которые ни в чем таком никогда не снимались. Видимо, из кинопроизводства вообще скоро уйдет такое понятие, как съемочный процесс: в эпоху пост-правды останется только пост-продакшен.
"В больших фильмах почти в каждом кадре есть компьютерная графика., от полностью нарисованных кадров до добавления каких-то элементов. Фильмы типа "Еравитации" можно назвать анимационным кино", - объясняет Арман Яхин, генеральный директор студии компьютерной графики.
И если раньше такую графику рисовали исключительно профессионалы, то сегодня инструменты для замены лиц есть в любом смартфоне. А значит, не только кино, но и любое видео можно искусно отредактировать.
Новые технологии быстро освоили мошенники. Аналитики совместно с институтом ООН по вопросам преступности и правосудия и Европолом подготовили доклад "Злонамеренное использование и злоупотребление искусственным интеллектом". И там дипфейки – одна из главных угроз. Самая распространенная схема – шантаж и угроза опубликовать некий непристойный компромат. В главной роли – ваш цифровой двойник.
"Если вы активно делитесь вашим портретами в социальных сетях, то не удивляйтесь, что через какое-то время появится видеоролик с вашим участием, который вы не снимали", - говорит Михаил Кондрашин, технический директор аналитической компании.
Предтеча видеодипфейков – алгоритмы распознавания лиц. Они тоже шагнули далеко вперед. Технология глубокого анализа видеоданных уже используется в бизнесе. В магазинах висят камеры, которые не только узнают покупателей в лицо, но и считывают эмоции. Чтобы покупатели знали, нравится нам товар или цена на него или нет.
С помощью своих биометрических данных - лица и голоса - уже сейчас можно снимать деньги в банках, расплачиваться за товары в магазинах, брать кредиты. Но что если лицо будет поддельное?
"Если мы по фотографиям восстанавливаем трехмерную модель лица, мы можем синтезировать изображение. Изображение посылается в банк, таким образом подтверждается операция. А дипфейк позволяет это делать без участия человека", - рассказал директор по методологии и стандартизации Positive technologies Дмитрий Кузнецов.
А еще мошенники могут сыграть по-крупному: заранее скупить акции какой-нибудь крупной компании и сделать сообщение от лица ее директора, которое повлияет на их стоимость.
Мировую экономику можно обрушить одним видеороликом. На экране появляется Илон Макс и заявляет: концепция электромобилей нежизнеспособна. Будем ездить на бензине. А еще – я перевожу все свои активы в китайские юани. Следите за движениями биржевых котировок.
Но главное - теперь в уста мировым лидерам можно вложить любые заявления, которые будут развязывать войны и разрушать экономики.
К трибуне с президентской печатью выходит якобы глава Соединенных Штатов Америки. И признается: коронавирусная инфекция разработана в секретной американской лаборатории. Ах да. И еще мы фальсифицировали выборы. На самом деле выиграл Трамп. Технология дипфейк – в действии. И, как следствие, масштабный политический кризис.
Государственные деятели определенно главная цель дипфейк-террористов. Во-первых, их относительно просто подделать: есть терабайты качественных видеозаписей, откуда нейросети могут взять изображение и голос. Во-вторых, именно политиков имеет смысл шантажировать сгенерированным компроматом. И, в-третьих, их слова могут вызвать эффект разорвавшейся бомбы – в буквальном смысле слова.
"Такого рода фейк, вызвать и нанесение ракетного удара по суверенной стране, вот так, как, допустим, по результатам тех роликов, которые инсценировали усилиями команды белые каски, точно так же можно и уже в домашних условиях", - говорит Андрей Кошкин, заведующий кафедрой социологии и политологии РЭУ им. Плеханова.
А главное, отличить дипфейк от оригинального видео что на глаз, что с помощью специальных программ – с каждым днем все сложнее.
"Как только появятся инструменты по распознаванию дипфейков, тут же дипфейки сделают качественный скачок вперед. Они закроют те уязвимости, за которые цепляются алгоритмы", - считает Станислав Ашманов, предприниматель, специалист по глубоким нейронным сетям и машинному обучению.
"Самый простой момент, как можно распознать фейковую информацию, в том числе видео- или аудио-дипфейк, – это понять, адекватно ли тот месседж, который транслирует этот объект", - отметил генеральный директор АНО "Цифровые платформы" Арсений Шельцин.
Спасение от искусственного интеллекта, оказавшегося не в тех руках, – свой собственный ясный разум и критическое мышление, которые по мере погружения в "дипфейковый новый мир", где нельзя верить собственным глазам, сохранять все сложнее.
Возможно, в недалеком будущем мы не только будем искать жизнь на других планетах, но..
В эпоху стремительного развития технологий, когда искусственный интеллект (ИИ) проникает..
Материалы сайта предназначены для лиц 16 лет и старше (16+)
Материалы, размещенные на сайте, носят информационный характер и предназначены для образовательных целей. Авторские права на материалы, размещенные на сайте, принадлежат авторам статей. Все права защищены и охраняются законом РФ. Мнение редакции не всегда совпадает с мнением авторов статей.
При использовании материалов с сайта, активная ссылка на esoreiter.ru обязательна.
▪ О проекте / Контакты ▪ Редакционная политика ▪ Политика конфиденциальности ▪ Пользовательское соглашение
Наши контакты: esoreiter@yandex.ru, гл.редактор А.В.Ветров Телефон редакции: +7 (917) 398-10-94
Для улучшения работы сайта и его взаимодействия с пользователями мы используем файлы cookie. Продолжая работу с сайтом, Вы разрешаете использование cookie-файлов и принимаете условия Политики конфиденциальности.