
Показания, которых не было, и звезды, которых не звали: YouTube захлестнула лавина дипфейков о Пи Дидди
Искусственный интеллект может не только создавать удивительные образы и тексты, но и быть опасным оружием в руках охотников за хайпом. В центре этой тревожной тенденции — громкое дело Пи Дидди. Пока общество ждет настоящих судебных решений, десятки YouTube-каналов спешат "сочинить" свои версии событий — с помощью дипфейков.
Как ИИ превращает фейк в сенсацию
Скандальные видео, якобы снятые в зале суда, показывают знаменитостей, которые, как утверждается, свидетельствуют против рэпера. Среди них — узнаваемые актеры, музыканты и даже политики. Монтажные приемы и генеративные ИИ-сценарии создают полную иллюзию подлинности: мимика, голос, жесты — все выглядит убедительно, особенно на фоне реальных фрагментов из зала заседаний, которые вставляются в ролики для достоверности.
Однако ни одно из этих видео не отражает реальности. Все показания, сцены, обвинения — вымышлены. Цель — вызвать шок, удержать внимание зрителя и, конечно же, заработать. Особенно часто всплывают обвинения в сексуальном насилии и торговле людьми — наиболее кликбейтные и эмоционально заряженные темы.
Цифры, за которыми стоит система
По данным The Guardian и Indicator, за последние 12 месяцев около 900 подобных роликов разместили 26 каналов. Их общая аудитория — порядка 70 миллионов просмотров. И это только зафиксированная статистика. Предположительно, как минимум 20 из этих каналов монетизируют свой контент, получая доход от встроенной рекламы YouTube.
Неудивительно, что дело Дидди превратилось в "золотую жилу" для создателей ИИ-контента. Один из них, Ваннар Аартс, открыто говорит об этом.
Реакция YouTube: поздно, но не слишком поздно?
YouTube не остался в стороне. Представитель платформы Джек Малон сообщил, что уже удалены 16 каналов, распространявших дипфейки, а еще несколько лишились возможности зарабатывать на рекламе. Тем не менее, учитывая скорость появления новых каналов и техническую легкость создания подобных роликов, победить волну фейков будет непросто.
Важный нюанс — алгоритмы YouTube до сих пор не всегда могут распознать дипфейк, особенно если он грамотно скомбинирован с фрагментами реального видео. Поэтому значительная часть фейкового контента продолжает циркулировать, оставаясь доступной для миллионов зрителей.
Интересные факты по теме:
-
По данным университета Колорадо, большинство пользователей не могут отличить дипфейк от реального видео при просмотре на смартфоне.
-
В 2024 году число жалоб на фейковый контент с элементами генеративного ИИ на YouTube выросло на 74% по сравнению с предыдущим годом.
-
Google тестирует автоматическую систему маркировки контента, созданного ИИ, но пока она не внедрена во все регионы.
Подписывайтесь на NewsInfo.Ru