кибербезопасность
кибербезопасность
Олег Белов Опубликована 14.10.2025 в 4:36

Голоса подделываются, атаки учатся: началась война, где ИИ — по обе стороны

97% компаний внедряют ИИ в кибербезопасность — исследование Sapio Research

Искусственный интеллект становится не просто инструментом, а активным участником в битве за безопасность цифрового мира. Его способность анализировать огромные массивы данных и учиться на опыте делает ИИ мощным союзником. Но в то же время он способен превратиться в источник угроз — автономные агенты, которые могут создавать собственные стратегии атак, заставляют специалистов по безопасности держать ухо востро.

Исследование Sapio Research подтверждает: 97% руководителей в сфере кибербезопасности уже используют или планируют внедрить решения с элементами ИИ. Это не просто тренд, а новая реальность, где нейросети становятся "множителем силы" для защитников.

ИИ как союзник защитников

На конференции Imagination in Action инженер Google Аюш Хандельвал беседовал с Хизер Эдкинс, вице-президентом Google по вопросам безопасности. Она признала: несмотря на риски, ИИ стал ключевым элементом защиты сетей, подключённых к Интернету.

"Мы довольно привыкли к недетерминированным ситуациям, потому что хакеры обычно довольно недетерминированы", — сказала Хизер Эдкинс.

Специалисты по безопасности, по её словам, всегда жили в условиях неопределённости. Однако теперь им приходится работать с ещё более непредсказуемыми системами — крупными языковыми моделями (LLM), которые могут действовать не так, как ожидалось. Поэтому инженеры стремятся ограничивать их возможности, создавая чёткие "рамки безопасности" и песочницы, где ИИ не сможет выйти за пределы допустимого сценария.

Новая этика защиты: ИИ с ограничениями

Главный принцип — контроль и предсказуемость. По словам Эдкинс, специалисты хотят, чтобы инструменты оставались детерминированными: выполняли ровно то, что им предписано, без спонтанных решений.

Это меняет саму философию кибербезопасности. Раньше инженеры защищали системы от людей. Теперь — от машин, созданных людьми.

"Кто звонит?" — ИИ и атаки доверия

Одна из самых тревожных тем — использование ИИ для создания дипфейков и фишинговых схем. Машины научились имитировать голоса, мимику и поведение реальных людей. Хизер Эдкинс уверена: человечество ответит на это новой культурой цифровой проверки.

"Моя гипотеза заключается в том, что дипфейки и возможность создавать цифровые личности на самом деле сблизят нас как людей", — сказала Эдкинс.

Она привела пример: когда кто-то звонит и утверждает, что это родственник, люди уже инстинктивно проверяют личность вопросами вроде "Что мы делали на моё 16-летие?". Эти маленькие тесты становятся новой формой человеческой аутентификации.

Мир, в котором никому нельзя верить

По словам Эдкинс, в некоторых странах уже формируется своеобразный "иммунитет к доверию". Люди не верят ни новостям, ни видео, ни фотографиям. Даже реальные события вызывают сомнения.

"В некоторых частях мира никто больше не верит ничему, что есть в интернете. Они подвергают сомнению всё: каждую новость, каждую фотографию", — подчеркнула она.

Этот скептицизм, по мнению эксперта, станет естественным механизмом защиты. Да, он может подрывать веру в реальность, но зато делает общество осторожнее.

Самозащитные системы

Следующий этап — появление самообучающихся защитных платформ, которые смогут реагировать на угрозы в реальном времени.

"Мы движемся к тому, чтобы задача инженера по безопасности заключалась в обучении машины… когда система как бы защищает себя сама", — пояснила Эдкинс.

Идея заключается в том, что специалист больше не будет вручную устранять каждую уязвимость. Его роль — обучить ИИ понимать контекст бизнеса, анализировать риски и самостоятельно выбирать меры защиты.

Сравнение: традиционная безопасность vs ИИ-защита

Критерий Классическая защита ИИ-защита
Скорость реакции Минуты и часы Миллисекунды
Масштаб анализа Ограничен людьми Глобальный, непрерывный
Прогнозирование атак Постфактум Предиктивное
Адаптация к угрозам Ручная настройка Автоматическое обучение
Стоимость Высокие постоянные затраты Снижается после внедрения

Советы шаг за шагом: как использовать ИИ в защите

  1. Начните с аудита рисков. Определите процессы, где автоматизация может ускорить реакцию без ущерба для контроля.

  2. Выберите безопасные модели. Используйте проверенные инструменты (Google Security AI, Microsoft Sentinel, IBM QRadar).

  3. Создайте изолированную среду. Тестируйте алгоритмы в песочницах, прежде чем допускать их к боевым системам.

  4. Настройте прозрачность. Все действия ИИ должны логироваться и быть подотчётными команде безопасности.

  5. Регулярно обновляйте модели. Новые угрозы требуют актуальных данных и контекстного обучения.

Ошибка → Последствие → Альтернатива

Доверие без ограничений → ИИ может выйти из-под контроля → внедряйте чёткие правила доступа и отслеживания.
Недооценка фишинга и дипфейков → компрометация персональных данных → используйте голосовые и биометрические подтверждения.
Игнорирование человеческого фактора → пользователи становятся уязвимым звеном → проводите тренинги по цифровой гигиене.

А что если…

…ИИ начнёт атаковать системы самостоятельно? Такие сценарии уже рассматриваются. Разработчики создают системы "взаимного сдерживания", где одни модели контролируют другие.

…вирус будет создан ИИ? Это возможно, но в ответ появятся защитные ИИ, способные локализовать угрозу быстрее человека.

…всё станет автоматизированным? Тогда роль человека сместится к управлению стратегией и этическим надзором.

Плюсы и минусы ИИ в кибербезопасности

Плюсы Минусы
Быстрая реакция на угрозы Риск непредсказуемых решений
Улучшенная аналитика и прогноз Сложность объяснения решений
Снижение нагрузки на персонал Возможные сбои и ложные тревоги
Предиктивная защита Угроза злоупотреблений технологиями

Мифы и правда

Миф: ИИ заменит специалистов по безопасности.
Правда: он автоматизирует рутину, но ответственность остаётся за человеком.

Миф: ИИ нельзя контролировать.
Правда: современные системы ограничиваются рамками песочниц и политиками безопасности.

Миф: дипфейки разрушат доверие.
Правда: они, наоборот, заставят людей внимательнее проверять источники и укрепят культуру цифровой осторожности.

Три факта о будущем ИИ-защиты

• Более 80% атак в 2025 году будут обнаруживаться с помощью ИИ-инструментов.
• Крупные корпорации уже внедряют автономные "киберсторожа", способные блокировать угрозу без участия человека.
• В ближайшие годы появятся стандарты "этичного ИИ-защитника", регулирующие допустимые пределы автономии.

Исторический контекст

  1. 2010-е: автоматизация киберзащиты с помощью скриптов и SIEM-систем.

  2. 2020-2023: внедрение машинного обучения для анализа сетевых аномалий.

  3. 2024-2025: переход к автономным агентам ИИ, способным защищать сети в реальном времени.

Подписывайтесь на NewsInfo.Ru

Читайте также

Бумагу можно переработать до шести раз — эколог Пешков сегодня в 13:35
Пакет против пластика: какой пакет в магазине на самом деле стоит выбирать

Эколог Андрей Пешков пояснил NewsInfo, почему бумажные пакеты экологичнее пластиковых.

Читать полностью »
Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »