Дипфейк — от английского «deepfake» — это технология, которая использует искусственный интеллект для создания реалистичных изображений, видео- или аудиоматериалов, в которых лица и голоса людей заменяются на другие. Дипфейками также называют сами подделки, созданные с помощью нейросетей.
С помощью искусственного интеллекта можно создать видео, на котором известный человек делает что-то, чего в реальности не делал, озвучить любой текст голосом знаменитости без ее участия или подготовить реалистичные фото.
Рассказываем, как бизнес может использовать дипфейки в работе и в чем опасность этой технологии.
Как создаются дипфейки
Чтобы создать дипфейк, нужно использовать технологии глубинного обучения. Вот как пошагово выглядит этот процесс на примере генерации дипфейк-видео:
- сбор данных;
- обработка данных и обучение модели;
- генерация дипфейка;
- финальная обработка.
Сбор данных. Сначала необходимо собрать достаточное количество данных о лице, которое вы хотите использовать для создания дипфейка. Эти данные могут включать в себя фотографии и видеоролики с различными углами, выражениями лица и освещением. Чем более разнообразные и качественные данные собраны, тем более реалистичным получится результат.
Обработка данных и обучение модели. Собранные данные обрабатывают при помощи специальных алгоритмов компьютерного зрения. Эти алгоритмы выделяют ключевые особенности лица: его контуры, морщины, движения губ.
Данные о лице передают модели глубокого обучения на основе генеративно-состязательной сети. Нейросеть учится создавать реалистичные изображения лица на основе полученных данных и оценивать итоговый результат. В процессе обучения модель улучшает свои навыки и создает все более реалистичные изображения, пока не начнет путать копию с оригиналом.
Генерация дипфейка. Когда модель обучилась, автор дипфейка берет целевое видео, в котором нужно заменить лицо, и применяет обученную модель для создания нового видео с лицом, сгенерированным моделью.
Финальная обработка. Полученный дипфейк может потребовать некоторой доработки, которая сделает его более реалистичным. Автор видео может скорректировать освещение, синхронизировать движение губ фейка со звуковой дорожкой или удалить неудачные кадры, на которых видны следы монтажа.
Некоторые нейросети, которые находятся в публичном доступе, уже достаточно обучены для создания фотореалистичных фейковых изображений. Например, Midjourney создавала фото Папы Римского в дорогом пуховике и поддельные репортажные кадры с арестом известных политиков. Для создания дипфейк-видео есть отдельные инструменты. Один из них — приложение FakeApp, которое позволяет самостоятельно обучать модель на пользовательских материалах с помощью открытой библиотеки Google TensorFlow.
Где используют дипфейки
В бизнесе дипфейки могут использовать в маркетинговых целях: например, для создания вирусной рекламы. Также дипфейки используют в кинематографе — например, чтобы скрыть участие дублера в съемках во время финальной обработки картины.
Чтобы законно использовать дипфейк, нужно получить права на использование образа знаменитости. Гражданский кодекс запрещает использовать изображение человека или запись его голоса без его согласия. Если же такое согласие получено у самого человека или у его родственников, которые имеют право дать такое согласие, в дипфейке нет ничего противозаконного. Например, компания Dove в 2014 году использовала в рекламе образ Одри Хэпберн с разрешения ее сыновей, спустя 21 год после смерти самой актрисы.
Технологию глубинного обучения, с помощью которой делают дипфейки, также используют в цифровых сервисах — например, при переводе видеороликов на другие языки. Обученные нейросети могут переозвучить видео на новом языке тем же тембром голоса, что использован в оригинале, и даже синхронизировать движение губ с произношением текста.
Вне бизнеса дипфейки используют в развлекательных целях — для создания сатирических видеороликов, пародий и вирусного контента. Нередко это делают незаконно, с целью манипуляции, дезинформации, шантажа или пропаганды.
Как распознать дипфейк
Дипфейки могут быть очень реалистичными, однако есть несколько признаков, по которым можно определить подделку:
- артефакты;
- несовпадения внутри видео;
- нестандартное движение на видео;
- неправдоподобное поведение.
Если у вас появилось подозрение, что видео или аудио могут быть подделкой, начните с проверки источника видео. Контент из сомнительных источников стоит проверять особенно тщательно: изучите метаданные видео, движения и объекты в кадре или используйте программные инструменты для разоблачения дипфейка — например, Sensity AI.
Что важно запомнить
- Дипфейк — реалистичная подделка фото-, аудио- или видеоматериалов с использованием образа человека, который не принимал участия в их подготовке.
- Для создания дипфейков используют нейросети и технологии машинного обучения.
- Дипфейки со знаменитостями можно законно применять в рекламе. Для этого нужно получить разрешение на использование образа человека, которого имитирует нейросеть.
- Чтобы распознать дипфейк, можно использовать специальные приложения. Также можно сделать это самостоятельно, если обращать внимание на детали: несовпадения внутри кадра, нестандартные движения и неправдоподобное поведение героя.
Рассылка: как вести бизнес в России
Каждую неделю присылаем самые важные новости бизнеса, разборы законов и инструкции, которые помогут вести свое дело