Зарегистрируйте бизнес в Т-Банке и получите бонусы до 500 000 ₽

Зарегистрируйте бизнес в Т-Банке и получите бонусы до 500 000 ₽

Подробнее
Идеи для бизнесаБизнес с нуляМаркетплейсыВопросы–ответыЖизнь вне работыСправочник
Идеи для бизнесаБизнес с нуляМаркетплейсыВопросы–ответыЖизнь вне работыСправочник

Дипфейк


Технология, которая позволяет создавать реалистичные фото, аудио и видео с помощью нейросетей


Технология, которая позволяет создавать реалистичные фото, аудио и видео с помощью нейросетей


Дипфейк — от английского «deepfake» — это технология, которая использует искусственный интеллект для создания реалистичных изображений, видео- или аудиоматериалов, в которых лица и голоса людей заменяются на другие. Дипфейками также называют сами подделки, созданные с помощью нейросетей.

С помощью искусственного интеллекта можно создать видео, на котором известный человек делает что-то, чего в реальности не делал, озвучить любой текст голосом знаменитости без ее участия или подготовить реалистичные фото.

Рассказываем, как бизнес может использовать дипфейки в работе и в чем опасность этой технологии.

Как создаются дипфейки

Чтобы создать дипфейк, нужно использовать технологии глубинного обучения. Вот как пошагово выглядит этот процесс на примере генерации дипфейк-видео:

  • сбор данных;
  • обработка данных и обучение модели;
  • генерация дипфейка;
  • финальная обработка.

Сбор данных. Сначала необходимо собрать достаточное количество данных о лице, которое вы хотите использовать для создания дипфейка. Эти данные могут включать в себя фотографии и видеоролики с различными углами, выражениями лица и освещением. Чем более разнообразные и качественные данные собраны, тем более реалистичным получится результат.

Обработка данных и обучение модели. Собранные данные обрабатывают при помощи специальных алгоритмов компьютерного зрения. Эти алгоритмы выделяют ключевые особенности лица: его контуры, морщины, движения губ.

Данные о лице передают модели глубокого обучения на основе генеративно-состязательной сети. Нейросеть учится создавать реалистичные изображения лица на основе полученных данных и оценивать итоговый результат. В процессе обучения модель улучшает свои навыки и создает все более реалистичные изображения, пока не начнет путать копию с оригиналом.

Генерация дипфейка. Когда модель обучилась, автор дипфейка берет целевое видео, в котором нужно заменить лицо, и применяет обученную модель для создания нового видео с лицом, сгенерированным моделью.

Финальная обработка. Полученный дипфейк может потребовать некоторой доработки, которая сделает его более реалистичным. Автор видео может скорректировать освещение, синхронизировать движение губ фейка со звуковой дорожкой или удалить неудачные кадры, на которых видны следы монтажа.

Некоторые нейросети, которые находятся в публичном доступе, уже достаточно обучены для создания фотореалистичных фейковых изображений. Например, Midjourney создавала фото Папы Римского в дорогом пуховике и поддельные репортажные кадры с арестом известных политиков. Для создания дипфейк-видео есть отдельные инструменты. Один из них — приложение FakeApp, которое позволяет самостоятельно обучать модель на пользовательских материалах с помощью открытой библиотеки Google TensorFlow.

Где используют дипфейки

В бизнесе дипфейки могут использовать в маркетинговых целях: например, для создания вирусной рекламы. Также дипфейки используют в кинематографе — например, чтобы скрыть участие дублера в съемках во время финальной обработки картины.

Чтобы законно использовать дипфейк, нужно получить права на использование образа знаменитости. Гражданский кодекс запрещает использовать изображение человека или запись его голоса без его согласия. Если же такое согласие получено у самого человека или у его родственников, которые имеют право дать такое согласие, в дипфейке нет ничего противозаконного. Например, компания Dove в 2014 году использовала в рекламе образ Одри Хэпберн с разрешения ее сыновей, спустя 21 год после смерти самой актрисы.

Реклама Мегафона с Брюсом Уиллисом — один из первых опытов легального использования дипфейка на российском рынке. Актер не участвовал в съемках, но разрешил использовать его цифровой образ для рекламы. Источник: реклама Мегафона

Технологию глубинного обучения, с помощью которой делают дипфейки, также используют в цифровых сервисах — например, при переводе видеороликов на другие языки. Обученные нейросети могут переозвучить видео на новом языке тем же тембром голоса, что использован в оригинале, и даже синхронизировать движение губ с произношением текста.

Вне бизнеса дипфейки используют в развлекательных целях — для создания сатирических видеороликов, пародий и вирусного контента. Нередко это делают незаконно, с целью манипуляции, дезинформации, шантажа или пропаганды.

Как распознать дипфейк

Дипфейки могут быть очень реалистичными, однако есть несколько признаков, по которым можно определить подделку:

  • артефакты;
  • несовпадения внутри видео;
  • нестандартное движение на видео;
  • неправдоподобное поведение.

Артефакты. К ним относятся различные дефекты, которые возникают после обработки видео: например, неестественные края лица или неровный переход между лицом и фоном. В некоторых случаях дипфейк-фильтр может «слетать» при резких движениях лица в разные стороны. Авторы фейков знают об этих недостатках, поэтому пытаются скрыть их с помощью ограничения в движениях, эффекта размытости или пониженного качества изображения.

В дипфейк-видео с Киану Ривзом, на котором актер ест тульский пряник, модель редко отворачивается от камеры. Это упрощает обработку видео и позволяет скрыть артефакты, сохраняя высокое качество картинки. Источник: Unreal Keanu Reeves

Несовпадающие элементы. Иногда дипфейки могут содержать несоответствия между лицом и другими элементами видеоряда, такими как освещение, тень, фон или фокус. Например, лицо может казаться неестественно освещенным или отличаться по качеству от изображения на фоне.

Нестандартное движение. Если модель была обучена на недостаточно широком наборе данных, мимика и движение губ в дипфейк-видео могут выглядеть неестественно. Например, у человека широко открывается рот, но почти не двигается подбородок, или он хмурит брови, но кожа на верхних веках при этом остается неподвижной. Подобные детали могут указывать на фейковость видео.

Неправдоподобное поведение. Если на видео или аудио человек ведет себя совершенно иначе, чем мы привыкли видеть, выражает нехарактерные или излишне радикальные для него мысли, это может быть признаком дипфейка.

Если у вас появилось подозрение, что видео или аудио могут быть подделкой, начните с проверки источника видео. Контент из сомнительных источников стоит проверять особенно тщательно: изучите метаданные видео, движения и объекты в кадре или используйте программные инструменты для разоблачения дипфейка — например, Sensity AI.

Что важно запомнить

  1. Дипфейк — реалистичная подделка фото-, аудио- или видеоматериалов с использованием образа человека, который не принимал участия в их подготовке.
  2. Для создания дипфейков используют нейросети и технологии машинного обучения.
  3. Дипфейки со знаменитостями можно законно применять в рекламе. Для этого нужно получить разрешение на использование образа человека, которого имитирует нейросеть.
  4. Чтобы распознать дипфейк, можно использовать специальные приложения. Также можно сделать это самостоятельно, если обращать внимание на детали: несовпадения внутри кадра, нестандартные движения и неправдоподобное поведение героя.

Подписка на новое в Бизнес-секретах

Подборки материалов о том, как вести бизнес в России: советы юристов и бухгалтеров, опыт владельцев бизнеса, разборы нового в законах, приглашения на вебинары с экспертами.

Tinkoff VoiceKit: технология распознавания и синтеза речи

Предложение от Т-Банка

Tinkoff VoiceKit: технология распознавания и синтеза речи

  • Создавайте голосовых роботов и ассистентов
  • Переводите аудиозаписи в текст и озвучивайте любой контент
  • Подойдет для автоматизации работы колл-центров, создания систем речевой аналитики и контроля качества и решения других бизнес-задач
Узнать больше

АО «Тинькофф Банк», лицензия №2673


Больше по теме

Новости