
Битва за мозг машин началась: Израиль официально нанял PR для нейросетей
Израильское правительство подписало контракт с американской PR-компанией Clock Tower X LLC, которая займётся продвижением интересов страны в цифровом пространстве — от разработки сайтов до влияния на алгоритмы искусственного интеллекта. Как следует из контракта, компания обязуется создавать контент, "влияющий на поисковые системы нейросетей". Это означает, что речь идёт не просто о классическом PR в интернете, а о попытке воздействовать на модели машинного обучения, определяющие, какие данные усваивает и воспроизводит искусственный интеллект.
Новая эпоха PR: влияние на алгоритмы, а не на людей
Если раньше информационные кампании были ориентированы на пользователей соцсетей и СМИ, то теперь акцент смещается на обучающие выборки ИИ. Суть подхода в том, чтобы наполнить интернет "благоприятным" для определённой стороны контентом, который затем автоматически попадёт в массивы данных, используемых для обучения языковых моделей — таких как ChatGPT, Gemini или Claude.
По мнению ряда аналитиков, это новая форма пропаганды — не для людей, а для алгоритмов, которые формируют картину мира у миллиардов пользователей через ответы искусственного интеллекта.
PR-агентство фактически создаёт искусственную среду, где нужные нарративы становятся "нормой" для машинного обучения. И если нейросети берут данные из открытых источников, они невольно начинают воспроизводить нужные акценты в ответах.
Что известно о контракте
Компания Clock Tower X LLC, зарегистрированная в США, получила контракт от правительства Израиля на оказание PR-услуг в рамках глобальных коммуникационных инициатив. Среди задач, указанных в договоре:
-
разработка веб-сайтов и новостных порталов;
-
создание SEO-оптимизированного контента;
-
влияние на алгоритмы поисковых систем и нейросетей;
-
организация цифровых кампаний, направленных на формирование позитивного образа Израиля.
Сумма контракта не раскрывается, но известно, что проект курируется через структуры, связанные с Министерством иностранных дел Израиля и его коммуникационными подразделениями.
Почему это вызвало общественный резонанс
Появление формулировки о "влиянии на поисковые системы нейросетей" вызвало волну обсуждений в профессиональном сообществе. До сих пор подобные формулировки не встречались даже в контрактах крупнейших PR-агентств мира.
Фактически, речь идёт о попытке влиять на формирование знаний и нарративов ИИ, а значит — на то, как искусственные интеллект-системы представляют события, историю и международные конфликты.
Эксперты отмечают, что такие практики могут стать началом гонки ИИ-пропаганды, где государства будут конкурировать не за внимание людей, а за контроль над данными, формирующими мышление машин.
Информационные войны XXI века
Подобные усилия вписываются в более широкий контекст информационных конфликтов, которые усиливаются с каждым годом.
Премьер-министр Израиля ранее открыто заявлял, что страна "проигрывает информационную войну" в интернете и обвинял "алгоритмы соцсетей" и "ботов" в том, что до 60% негативных публикаций о стране создаются искусственно.
"Израиль не выигрывает информационную войну из-за алгоритмов и автоматизированных сетей, формирующих восприятие", — сказал премьер-министр Израиля.
На фоне таких заявлений попытка создать инфраструктуру цифрового влияния выглядит логичным продолжением борьбы за нарративы.
Давление на интернет-платформы: примеры последних лет
Истории о попытках давления на цифровые площадки стали регулярными в новостях последних лет.
-
Википедия. Израиль неоднократно критиковал "Википедию" за "антисемитскую и антиизраильскую предвзятость". По сообщениям СМИ, представители страны пытались через американский Конгресс повлиять на редакционную политику проекта.
-
Соцсети и Telegram. Ранее Павел Дуров рассказывал о случаях давления со стороны французских спецслужб, которые требовали ограничить доступ к определённым телеграм-каналам.
-
COVID и выборы в США. В 2023–2024 годах обсуждались случаи давления на руководителей американских соцсетей с целью ограничить распространение тем о лабораторном происхождении коронавируса и материалов, касавшихся предвыборных кампаний.
-
Операция "Филип Кросс" (2018-2020). Расследования показали, что тысячи статей в Википедии редактировались координированной группой с целью смещения акцентов в пользу определённых политических позиций.
Все эти случаи показывают, что борьба за цифровое пространство давно вышла за рамки привычной пропаганды — теперь она ведётся на уровне алгоритмов и инфраструктуры.
Сравнение: классическая пропаганда vs ИИ-пропаганда
Характеристика | Классическая пропаганда | ИИ-пропаганда |
Цель | Влияние на восприятие людей | Влияние на обучение моделей |
Инструменты | СМИ, соцсети, реклама | SEO, датасеты, синтетический контент |
Аудитория | Пользователи | Алгоритмы и ИИ-системы |
Масштаб | Ограничен человеческим охватом | Глобальный — через миллиарды ответов ИИ |
Опасность | Манипуляция мнением | Искажение самой "реальности" данных |
Таким образом, если раньше государства боролись за умы, то теперь они борются за данные, формирующие эти умы.
Возможные последствия
-
Эрозия доверия к ИИ. Пользователи начнут сомневаться, насколько нейросети объективны.
-
Рост конкуренции между странами. Каждое государство может создать собственные "информационные пакеты" для внедрения в обучающие наборы данных.
-
Угроза научной достоверности. Если в обучающие выборки попадут искажённые материалы, ИИ может транслировать их как факты.
-
Новые нормы регулирования. Вероятно, в ближайшие годы появятся законы о прозрачности источников данных для моделей искусственного интеллекта.
Ошибка → Последствие → Альтернатива
-
Ошибка: Игнорировать происхождение обучающих данных.
Последствие: Нейросети усваивают предвзятые или манипулятивные нарративы.
Альтернатива: Введение обязательной маркировки и независимого аудита датасетов. -
Ошибка: Передавать обучение полностью частным компаниям.
Последствие: Государства теряют контроль над информационным влиянием.
Альтернатива: Создание международных центров по этике и контролю ИИ. -
Ошибка: Подменять общественное мнение алгоритмами.
Последствие: Потеря доверия к технологиям и рост поляризации.
Альтернатива: Прозрачность и открытое участие общества в разработке ИИ.
А что если алгоритмы уже "воспринимают" пропаганду?
Если подобные PR-стратегии действительно массово внедряются, то современные модели ИИ могут уже сейчас содержать элементы идеологического смещения, не осознавая этого. Это значит, что будущее информационных войн — не в социальных сетях, а в искусственном интеллекте, который перерабатывает, классифицирует и транслирует данные.
Отсюда возникает новая ответственность: не только за контент, но и за структуру обучающих данных, формирующих "мировоззрение" машин.
Плюсы и минусы подхода
Плюсы | Минусы |
Возможность донести свою позицию до глобальной аудитории | Риск манипуляции и подмены фактов |
Повышение узнаваемости страны в цифровой среде | Потеря доверия к источникам информации |
Создание новых форм цифрового PR | Искажение объективной картины мира |
Часто задаваемые вопросы (FAQ)
Что означает "влияние на поисковые системы нейросетей"?
Это создание контента, который будет индексироваться ИИ-моделями при обучении и влиять на их восприятие фактов.
Может ли ИИ отличить пропаганду от фактов?
Нет. Модель обучается на данных, не зная их идеологического происхождения.
Как защитить обучение моделей от манипуляций?
Путём аудита датасетов, проверки источников и внедрения этических фильтров.
Законно ли вмешательство государств в обучение ИИ?
На данный момент это не регулируется международным правом.
Что будет, если подобные практики станут массовыми?
Модели ИИ могут стать инструментом глобальных нарративных войн, где истина зависит от того, кто первым обучил алгоритм.
Мифы и правда
-
Миф: Невозможно повлиять на обучение ChatGPT или других ИИ.
Правда: Любые открытые источники данных могут попасть в выборку и влиять на результаты. -
Миф: Пропаганда в ИИ — это теория заговора.
Правда: Создание направленного контента для алгоритмов уже становится частью PR-стратегий. -
Миф: Только крупные державы могут влиять на ИИ.
Правда: Даже частные компании способны менять баланс данных через массовую генерацию контента.
3 интересных факта
-
Clock Tower X LLC ранее участвовала в цифровых кампаниях для ближневосточных проектов.
-
В США уже обсуждают регулирование "алгоритмического PR" как отдельного направления индустрии.
-
Первые исследования влияния PR-контента на обучение моделей ИИ проводятся в университетах Стэнфорда и Оксфорда.
Исторический контекст
-
2018-2020: операция "Филип Кросс" в Википедии — массовое редактирование страниц.
-
2023: давление на соцсети из-за тем COVID и выборов в США.
-
2024: заявления Израиля о "неудаче в информационной войне".
-
2025: контракт правительства Израиля с Clock Tower X LLC — первый официальный случай PR-влияния на ИИ-алгоритмы.
Подписывайтесь на NewsInfo.Ru