Видео, созданные при помощи цифровых технологий, будут манипулировать людьми

Заметили, что в последнее время все чаще стали появляться в Сети фейковые видеоролики, настолько искусно сделанные, что их практически невозможно отличить от оригинальных? Все они созданы при помощи технологии технологии Deepfakes. В основе ее — метод машинного обучения. До последнего времени ее применяли в исследовательских лабораториях. Однако недавно эта технология стала доступна широкой публике.

Сложного тут ничего нет: достаточно скачать приложение на персональный компьютер и, немного попрактиковавшись, создавать фейковые видео.

Первые подобные видео появились в прошлом года на популярной платформе Reddit. Одн из пользователей при помощи Deepfake создал порнографические ролики, а главными героинями в них оказались Кэтти Пэрри, Эмма Уотсон и другие известные актрисы из Голливуда. Скандал получился грандиозным.

На этом любители Deepfakes не останаовились: используя возможности нейросетей, они стали делать ролики с участием известных политиков.

"Идея о том, что кто-то может наложить лицо одного человека на тело другого, сразу наводит на мысль о попытках вмешаться в естественный ход жизни, — говорит сенатор штата Вирджиния Марк Уорнер. Он возглавляет группу по борьбе с Deepfakes в социальных медиа.

По его мненнию, это новая реальность, с которой необходимо начать серьезную борьбу. В противном случае последствия могут быть просто необратимыми. Кроме того, за видео, публикуемыми на YouTube, в данный момент следят эксперты, такие как, например, профессор Дартмутского колледжа Хани Фарид, который специализируется на цифровой криминалистике и анализе изображений.

Исследователи их Стэнфорда, Института информатики общества Макса Планка и Университета Эрлангена-Нюрнберга пару лет назад начали исследовать возможности использования в медиапроизводстве возможности ИИ. Их усилиями была создана еще одна интересная программа, получившая название Face2Face.

При помощи самой обычной вебкамеры можно следить за мимикой двух людей. Затем лица проецируются друг на друга. Причем делать это можно в прямом эфире и вставлять в видеотрансляцию. Лицо на телеэкране под управлением актёра способно отвечать на вопросы, хмурить брови и т. д.

Аналогичное приложение — VoCo — выпустила компания Adobe. С ее помощью пользователь может очень легко отредактировать любую аудиозапись. И пример такого использования уже есть: был симитирован голос Барака Обамы.

Такие возможности ИИ не могут не беспокоить. "То есть я, обычный человек, могу стать президентом Соединенных Штатов и пропагандировать все, что угодно. Это идеальный способ манипулирования людьми, который может усугубить и без того непростую ситуацию с поддельными новостями", — заявил профессор Фарид.

И он прав: это уже будут не просто отдельные попытки манипуляции массовым сознанием. Злоумышленники смогут создать полноценныех клонов, виртуальных людей, которые живут только в телевизоре.

Они будут выступать в прямом эфире, отвечать на вопросы, принимать участие ток-шоу или встречаться с избирателями. Но это только на экране, а управление персонажем будет происходить в дистанционном режиме.