Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Что такое дипфейки?

Как собрать всех великих актеров в одном фильме или посмотреть, как бы выглядел Арнольд Шварценеггер в роли Рокки Бальбоа? Сейчас это вполне реально – технология замены лиц получает все большее распространение, а искусственный интеллект создает уже практически не отличимые от оригинала подделки. Они и называются дипфейками.

Deepfake — это метод, который использует искусственный интеллект для создания изображений, когда персонажи «накладываются» друг на друга. Так можно заменить в фильме одних актеров на других, поменять героев в видеоролике или «оживить» произведения искусства.

Но совершенно наивно полагать, что дипфейк — это лишь замена лиц на видео, то есть банальный фотошоп. Этот алгоритм – продукт глубокого машинного обучения. Сначала программисты обучают нейронную сеть считывать необходимую часть исходного изображения и преобразовывать ее в определенный цифровой код. Происходит это в несколько этапов — таким образом система отсекает все лишнее.

Приведем очень упрощенный пример. Предположим, что у нас есть фотография человека, которого мы бы хотели заменить на известного актера. Нейросеть присваивает каждой части его лица (глазам, носу, рту и пр.) определенный код — для простоты дадим им простые числовые значения: рот –1, нос – 2 и т.д.

Далее мы берем фото актера, и искусственный интеллект проводит ту же самую процедуру с новой фотографией. Потом при помощи алгоритма эти коды заменяют друг друга на фотографиях (1 на 1, 2 на 2 и т. д.) и вуаля – вот уже Зинаиду Степановну из бухгалтерии поздравляет с фотографии Шон Коннери. То есть мы захватили лицо одного человека и отобразили его на другом.

Современные технологии позволяют менять лица не только на фото, но и на видео. Достаточно вспомнить одну из частей фильма «Форсаж», где за рулем автомобиля зрителю показывают уже погибшего на тот момент Пол Уокера.

Таким образом, с помощью дипфейка можно сгенерировать любое изображение, создать фейковое интервью знаменитости или вообще использовать эту технологию в целях шантажа (изменив лица на каком-либо провокационном видео).

Именно поэтому всё острее встает вопрос об этичности использования дипфейков. Однако ящик Пандоры уже открыт и обернуть время вспять точно не получится. Это маленькая монетка в копилку любителей теорий заговоров — возможно, не стоит доверять всему что вы видите на экране. Манипулировать контентом при помощи дипфейков очень и очень просто.