Технология Дипфейк: как «надеть» на себя чужое лицо

Всем привет! Помните культовый боевик конца 90-х «Без лица» с Николасом Кейджем и Джоном Траволтой в главных ролях? В этом фильме преступник и полицейский «меняются» лицами и из-за этого возникает куча проблем. Так вот, современные технологии позволяют безо всякого хирургического вмешательства «нацепить» себе или другому человеку любое лицо, причем так реалистично, что родная мама не определит подмену. Правда, осуществить такую операцию можно только виртуально – на видео или фото. В этой статье я расскажу вам, как технология Дипфейк (Deepfake) уже начинает менять мир и почему она одновременно является и опасной, и полезной.

технология дипфейк

Что такое технология Дипфейк?

По своей сути, Deepfake это искусственный интеллект, который способен анализировать изображение человеческого лица и накладывать его на практически любой объект. Алгоритм способен обучаться и совершенствоваться. Чем больше «исходников» ему предоставить, те более точно он будет воспроизводить черты лица. Технология Дипфейк основана на работе двух нейросетей. Первая из них способна генерировать образцы изображений, а вторая способна отличать подлинные образцы от поддельных. Работа Deepfake опирается на открытые алгоритмы машинного обучения и библиотеки данных. Благодаря наличию доступа к качественным источникам, нейросеть самообучается и «дипфейки» достигают поистине потрясающего качества. То есть обычному человеку довольно трудно отличить реального человека от его цифровой копии на видео.

Первые видеоролики с использованием нейросети Deepfake появились в 2017 году. И это естественно был порно-контент, когда лица актрис «горячего» жанра заменялись лицами знаменитостей. Первой, «жертвой» Дипфейк стала Чудо-женщина – актриса Галь Гадот.  Вдоволь натешившись пририсовыванием знаменитых лиц порноактрисам, адепты Deepfake взялись за политиков. Например, актеру Джордану Пилу наложили лицо Барака Обамы, который крайне правдоподобно ругал Дональда Трампа не стесняясь применять нецензурные выражения.

В чем состоит опасность и польза Deepfake?

Технология Дипфейк совершенствуется с каждым годом и скоро дойдет до такого уровня развития, что наложенные лица уже будет не отличить от настоящих даже экспертам! То есть, по сути, с помощью Deepfake можно будет дискредитировать любого человека. И поди потом докажи, что ты не «верблюд». В руках аморальных личностей данный инструмент может представлять серьезную угрозу для общества. Особенно для людей, занимающих в обществе значимое положение. Поэтому уже сейчас разрабатываются программные способы распознавания такого обмана.

Если же говорить о пользе Deepfake, то просто достаточно посмотреть недавний видеоролик Сбера, где молодой Леонид Куравлёв в образе Жоржа Милославского весьма бодро рекламирует услуги банка. То есть с помощью Дипфейк можно натурально «оживить» любого человека и использовать его образ для достижения различных благородных целей. Например, можно снять клип на последний хит Queen – песню The Show Must Go On, используя образ незабвенного Фредди Меркьюри и других участников группы в молодом возрасте…

Технология Дипфейк: можно ли распознать подмену?

В настоящее время технология Дипфейк не настолько совершенна, чтобы внимательный зритель не смог распознать подмену. Конечно, это касается, прежде всего, любительских видеороликов. Если присмотреться к роликам с использованием Deepfake, то можно заметить, что люди на них не моргают. Кроме того, мимика на видео зачастую далека от естественной, особенно в области губ. Нейросети пока не могут точно воспроизводить естественные физиологические движения – дыхание или движение глаз. Так что, рекомендуем вам не сразу верить «хайповым» новостям в интернете, подтвержденным видеороликами. Там может быть обман…Как говорится: доверяй, но проверяй!

Интересуют свежие цифровые тренды? Рекомендую вам почитать ещё эту статью про стремительно набирающую популярность социальную сеть Clubhouse!

Добавить комментарий

Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять