Войти в почту

Дипфейки: от порнороликов до качественного рекламного инструмента

В сети гуляют ролики, где знаменитости творят странные вещи: заявляют о том, что их оппонент complete dipshit, признаются, что используют данные пользователей во имя корпорации зла, или просто пробуются на новые роли в «Матрице» и «Терминаторе». Такие видео называют дипфейками, и вокруг них много шума. Почему многие их не любят, как пытаются регулировать, а также чем эта технология может быть полезна рекламной индустрии - мы попытались разобраться. Дипфейк (от англ. «deep learning» – глубокое обучение и «fake» – фальшивый) – реалистичная манипуляция аудио- и видеоматериалами с помощью искусственного интеллекта. Эта технология заставляет говорить человека то, что он не произносил, и делать то, что он никогда не делал. В основе дипфейков лежат генеративно-состязательные нейросети (GAN). Это алгоритмы на базе машинного обучения, способные генерировать новый контент из заданного набора. Например, GAN может изучить тысячу фотографий Барака Обамы и создать свою, сохраняя все черты и мимику экс-президента. Эту технологию разработал студент Стэнфордского университета Ян Гудфеллоу в 2014 году. Знал бы он, что через три года пользователь Reddit начнет с помощью нее заменять лица порноактрис знаменитостями. Кстати, его ник был «Deepfakes». После этого Reddit ужесточил свои правила в распространении контента, а за подобными роликами со звуковой и/или видео манипуляцией закрепилось название «дипфейки». Недавнее исследование показало, что 96% дипфейков в интернете – порноролики. Помимо порнографии пользователи в интернете интересуются еще и политикой. В сети есть несколько дипфейков с политическими деятелями, где их выступления монтировали и меняли смысл высказывания. Пьяная Нэнси Пелоси, Трамп, выступающий против климатических инициатив, а также Обама, который в одном из роликов назвал Трампа complete dipshit (засранцем). Конечно, в реальности никто из них этого не делал, но доказали это не сразу. По мнению палаты представителей конгресса США, дипфейки представляют угрозу национальной безопасности страны. Законодатели обеспокоены тем, как эта технология повлияет на будущую предвыборную кампанию и политическую обстановку в целом. Калифорния стала первым штатом, где на законадательном уровне запретили распространение дипфейков с кандидатами во время предвыборной гонки. Часто обычному пользователю сложно отличить смонтированное видео от настоящего. А по мнению экспертов, в течение полугода – года технологии достигнут такого уровня, что видео уже будет невозможно отличить от оригинала. Распространение ложной информации, вторжение в частную жизнь, разрушение репутации – и это только маленькая часть того, к чему могут привести дипфейки. Крупные корпорации – Facebook, Microsoft, Google – пытаются бороться с распространением фейковых видео. Они создают свои датасеты, на которых разработчики смогут тренировать алгоритмы для обнаружения дипфейков. Facebook анонсировала конкурс с призовым фондом $10 млн на лучшую программу, которая сможет распознавать фейковые видео. Сами по себе технологии не могут быть хорошими или плохими – все зависит от того, как человек их использует. В сети много развлекательных роликов с дипфейками. Так, на youtube-канале Ctrl Shift Face автор меняет лица главных героев фильма на других известных голливудских актеров. В его роликах Сильвестр Сталлоне становится Терминатором, Брюс Ли исполняет роль Нео в "Матрице", а Джим Керри вместо Джека Николсона играет главную роль в "Сиянии". Есть примеры использования дипфейков и в рекламе. Бекхэм снялся в социальном ролике об опасностях малярии. Те же технологии помогли ему заговорить на 9 разных языках: носители произносили текст, а ИИ подстраивал его под артикуляцию футболиста. Британская компания, снявшая рекламу, предпочитает называть это видео "синтезом", а не "дипфейком", чтобы избежать негативных коннотаций. Некоторые авторы с помощью этой технологии пытаются привлечь внимание к социальным проблемам. Бил Постерс выкладывает в социальные медиа дипфейки с Цукербером, Кардашьян, Марком Фрименом. Одна из его последних работ – тизер для вымышленного тв-проекта с Джефом Безосом – главой Amazon. Этой работой он пытается привлечь внимание к горящим лесам Амазонки, в том числе внимание самого Безоса, который "одолжил название лесов для своей компании, чтобы стать самым богатым человеком на Земле". Мы поговорили с экспертами о том, есть ли у дипфейков положительные стороны, чем эта технология может быть полезна рекламной индустрии, а также нужно ли будет в будущем регулировать выпуск таких роликов. Олег Агейчев, режиссер, креативный директор Видеостудия Mozga : Хотя технология уже достаточно известна, пока тренда на использования её в рекламе нет. Сейчас дипфейки в массовом сознании - это информационное оружие. И поэтому для брендов использование этой технологии в коммуникации - огромный репутационный риск. Возможно, смелые революционные бренды позволят себе такой ход, но скорее всего в ближайшем будущем это будут единичные случаи. Сама технология обладает еще рядом несовершенств: мимические артефакты - нереалистичные движения, монотонность речи. Поскольку все движения лица генерируются ИИ, некоторые из них получаются неестественными. Конечно, их можно скорректировать, но тогда, возможно, нереалистичными станут другие элементы мимики. Даже короткий видеоролик содержит огромное количество таких мимических движений, поэтому требуется очень качественно обученный ИИ, чтобы на большом объеме не допускать ошибок. При росте количества дипфейков, будет расти и чувствительность аудитории к таким несовершенствам. Возможно благодаря этому, идея «найди дипфейк» и станет основной для коммуникации ИТ-компании или новостного агрегатора. Нестареющие и вечно живые звезды - это потенциальная возможность для рекламной индустрии. Но такие возможности есть уже достаточно давно с использованием других технологий без мимических артефактов ИИ. Это и MOCAP-съемка с актера, переложенная на 3D-модель, и пластический грим и т.д. Такие приемы редко используются не из-за отсутствия технологий, а из-за неразрешенных этических вопросов. Елена Коршак, контент-директор Wavemaker : «Don't panic. Prepare» - лучший совет по теме DeepfakeAI, который я слышала. Да, многих пугает реалистичность созданных видео и отсутствие программ распознавания подделки. Мы уже столкнулись с негативными проявлениями использования этой технологии - многочисленные фейк-порно со звездами, политические провокации, попытки шантажа и др. Но я верю, что в DeepfakeAI скрыт огромный потенциал для творческих команд при производстве видео-контента. На основе коротких архивных видео и фото мы сможем создавать более зрелищные и интересные реконструкции исторических событий или снимать одновременно в нескольких локациях с дублерами, а потом корректировать эпизоды с помощью нейросетей, что сократит срок производства финального продукта. DeepfakeAI - большая удача для тех, кто работает в комедийном жанре, делает байопики и документальное кино. Примерно как «фотошоп» для дизайнера. Тут главное делать ставку на оригинальные идеи, захватывающий сюжет и непредсказуемые ходы, а не постить еще одно «смешное видео с Николасом Кейджем». DeepfakeAI - это страховка участников съемочного процесса в форс-мажорной ситуации. Можно вспомнить трагически погибших Хита Леджера и Пола Уокера. Фильмы с их участием не были окончены и студии несли колоссальные убытки. При этом именно Голливуд сейчас активнее других борется с DeepfakeAI и требует очистить интернет от пиратского фейкового контента со звездами. На их месте я бы, напротив, использовала технологию как мощный интерактивный инструмент продвижения фильмов с гигантским вирусным потенциалом, где каждый может оказаться в роли Супермена или Бэтмена. Не думаю, что возможно запретить использование DeepfakeAI, также как и удалить весь пользовательский фейк-контент. Но важной задачей ближайших лет в нашей стране станет принятие законов, которые на государственном уровне будут регулировать «зону свободы» применения технологии. А мы станем серьезнее относиться к источникам информации. Юрий Тимошенко, креативный директор Main Target Group : Как и любая новая технология, дипфейк может применяться в рекламе. По сути, это инструмент, который можно и нужно использовать для достижения целей рекламодателей. Положительных сторон технологии довольно много – это, например, возможность реанимировать хорошо известных персонажей, которые состарились или умерли. Затем, возможность использовать образ известного человека без его согласия и без ассоциированных с этим человеком гонораров. Формат дипфейк идеально интегрируется в современный интернет-мир с соцсетями и приложениями для мгновенного обмена мультимедийным содержанием. Дипфейк не обязательно должен использовать образы людей - это могут быть и легендарные животные, такие как Белка и Стрелка. Это может быть и голос, как показывают пранкеры Вован и Лексус. Возможно, будут созданы виртуальные персонажи с большей харизмой и коммерческим потенциалом, чем Иван Ургант! Тренд на создание дипфейк-видео увеличивается стремительно! Приложения, такие как FaceApp, уже эксплуатируют концепцию дипфейк с большим размахом. Как всегда с новыми технологиями, порно индустрия выступает основным мотиватором, но они быстро внедряются в самые разные сегменты. Без всякого сомнения, креативщики будут активно экспериментировать с этим новым медиумом. У него заведомо сильный эмоциональный эффект, несмотря на потенциальные юридические сложности с использованием образов известных людей. Хотя в будущем могут быть стандартные договора на использование образов в дипфейках, возможно даже будут продаваться лицензированные виртуальные заготовки для дипфейк-производства. Наверняка необходимо будет регулировать этот рынок, особенно с потенциалом технологии для манипуляции общественным мнением и мошенничества. Парамон Парфёнов, креативный директор Dada Agency : Развитий у технологии может быть множество. Например, Киану Ривз может продать своё лицо и сняться в рекламе Пятерочки, даже не приезжая в Москву. По идее, кост за такой прокат должен быть ниже. Продакшены могут внедрить технологию в цикл производства и предлагать лица 3D-актеров или вообще создавать своего. Клиент может сам создавать своих актеров и снимать ролик с ними. Ещё лучше снимать один ролик, но менять лица актеров в зависимости от целевой аудитории. Это же мечта маркетолога. Каждый потребитель будет видеть то, что он любит. Я думаю, до массового потока таких роликов не долго осталось. Если вспомнить ролик с Miquela and Bella Hadid для CALVIN KLEIN [Lil Miquela – цифровая инстаграм-модель, прим. Sostav], то будущее уже тут. И тут дело не только в дипфейке, а в развитие индустрии в целом. Если вы видели Короля Льва, то вам не нужно объяснять, что сейчас технологии развились до такой степени, что можно сделать фильм полностью в 3D. Дипфейк — это скорее побочный продукт. Креативщики должны использовать дипфейк или любую другую технологию, но главное, чтобы это помогало доносить идею и выполняло задачи бренда. Иначе это просто игрушка и слитый бюджет, хоть и очень по-веселому. Мне кажется, сейчас вообще нет никакого законодательства на этот счет, ведь ты можешь при рендере изменить некоторые черты лица, и да, человек будет похож, но не будет оригинальной копией и экспертиза ничего не докажет. Так что нужно успевать пользоваться, пока всё это не стало сложно, и лицензирование не встало на поток. Сергей Житинец, генеральный директор MOTIVE agency&production: Сферу рекламы и развлечений ожидает этап бурного роста применения дипфейков. Пока он сдерживается технологическими сложностями и некоторыми правовыми аспектами, но это вопрос времени. Мы знаем опыт цифровой реинкарнации в кино, когда создатели блокбастеров «возвращают к жизни» давно ушедших актеров. Например, получил цифровую копию в «Изгой-один: Звёздные войны» Питер Кушинг, который покинул мир четверть века назад, а в 2013-м в рекламном ролике шоколада «снималась» молодая Одри Хепберн. Цифровых двойников активно используют в кино и deepfake подтолкнет рынок к оцифровке виртуальных актеров. Функция замена лиц на фото доступна сегодня любому пользователю софта, а вот механизм создания видео с изменением лица персонажа требует достаточно серьезных компетенций. Через пару «процессоров» мы сможем привязывать видео к изображению в высоком качестве исполнения, оживлять персонажей и озвучивать их без применения спецоборудования. Как только процесс упростится, сети наводнят истории с качественными «подменами», на волне которых можно будет продвигать все от мыла до космической ракеты. Технология породит волну челленджей и прочих активностей в соцсетях. Чем опасен deepfake? По сути, технология не оставляет шансов дополнительного заработка для плеяды актеров, для которых работа в рекламе и промо - основной источник дохода. У публичных лиц в стоимости услуг появится строка: «прайс на лицо». Алгоритм может стать находкой для нечистых на руку пиарщиков и тех, кого интересуют репутационные войны. Помните нашумевший ролик с экс-президентом США? Эта история четко обозначила перспективы недобросовестного использования дипфейков. Появится и этический вопрос, нужно ли указывать в кино и рекламе пометку deepfake? Олег Бутковский, креативный директор UNDRAFTED (группа компаний DPG Russia ): Если не говорить об этике, то технология deepfake очень крутая. Нейросети прогрессируют, и уже можно создавать качественные видео крупных планов, что раньше казалось сложным, долгим и дорогим процессом. Сейчас это уже доступно до такой степени, что существуют гайды, которые учат обычных пользователей менять лица в видео 18+ на любые другие (индустрия, которая всегда генерировала инновации). Можно придумать кучу интересных способов применения дипфейков в рекламе. Например, менять надоевших актеров прямо во время показа рекламы. Нажать паузу и выбрать из списка лиц наиболее приятных лично тебе людей. Или поменять их на близких и знакомых. Пусть в рекламе молока главным героем будет твоя любимая бабушка, а не незнакомая женщина, которая играет образ бабушки. Это будет совсем другой уровень эмоциональной связи. Недавно Facebook объявил о конкурсе, цель которого создать алгоритмы, позволяющие автоматически отличать фейковые видео от настоящих. Когда технологичная компания тратит миллионы на борьбу с конкретной технологией, это говорит только об одном: сама технология вынуждена будет развиваться и становится лучше, чтобы обойти самые современные способы защиты. Так что все самое интересное впереди. Михаил Перловский, креативный директор AnyBodyHome! : Эта технология, как и многие другие, интересна не своей механикой, процессом натаскивания скриптов на картинки, и не самой возможностью поменять лицо на видео - мы уже "знаем", что так и должно быть - воображение наше прокачено достаточно. Интересна она тем, что технологии всё чаще аппелируют уже не столько к моральному выбору человечества, а к личному понятию нормы. Порно-ролики со знаменитостями люди смотрят. А если сказать, что он фейковый, что-то изменится? А если про настоящий сказать, что он фейковый? А если собрать фейковый, сказать, что настоящий, а потом раскрыть правду? Важность самого события - подглядывания в чью-то спальню - обесценивается. И это радует. Пелевин оказался не писателем, а конструктором реальности. Смелый бренд, который даст возможность пообщаться с близкими, которые умерли, вызовет большое человеческое уважение. Наверняка появятся законы, наверняка - регуляторы, наверняка профессиональное сообщество актеров строго откликнется. Если честно - мне все равно, кто на экране, пока он играет хорошо. А с этим пока проблемы. Я в театр ходить буду, если что.

Дипфейки: от порнороликов до качественного рекламного инструмента
© Sostav.ru