кибербезопасность
кибербезопасность
Олег Белов Опубликована сегодня в 4:36

Голоса подделываются, атаки учатся: началась война, где ИИ — по обе стороны

97% компаний внедряют ИИ в кибербезопасность — исследование Sapio Research

Искусственный интеллект становится не просто инструментом, а активным участником в битве за безопасность цифрового мира. Его способность анализировать огромные массивы данных и учиться на опыте делает ИИ мощным союзником. Но в то же время он способен превратиться в источник угроз — автономные агенты, которые могут создавать собственные стратегии атак, заставляют специалистов по безопасности держать ухо востро.

Исследование Sapio Research подтверждает: 97% руководителей в сфере кибербезопасности уже используют или планируют внедрить решения с элементами ИИ. Это не просто тренд, а новая реальность, где нейросети становятся "множителем силы" для защитников.

ИИ как союзник защитников

На конференции Imagination in Action инженер Google Аюш Хандельвал беседовал с Хизер Эдкинс, вице-президентом Google по вопросам безопасности. Она признала: несмотря на риски, ИИ стал ключевым элементом защиты сетей, подключённых к Интернету.

"Мы довольно привыкли к недетерминированным ситуациям, потому что хакеры обычно довольно недетерминированы", — сказала Хизер Эдкинс.

Специалисты по безопасности, по её словам, всегда жили в условиях неопределённости. Однако теперь им приходится работать с ещё более непредсказуемыми системами — крупными языковыми моделями (LLM), которые могут действовать не так, как ожидалось. Поэтому инженеры стремятся ограничивать их возможности, создавая чёткие "рамки безопасности" и песочницы, где ИИ не сможет выйти за пределы допустимого сценария.

Новая этика защиты: ИИ с ограничениями

Главный принцип — контроль и предсказуемость. По словам Эдкинс, специалисты хотят, чтобы инструменты оставались детерминированными: выполняли ровно то, что им предписано, без спонтанных решений.

Это меняет саму философию кибербезопасности. Раньше инженеры защищали системы от людей. Теперь — от машин, созданных людьми.

"Кто звонит?" — ИИ и атаки доверия

Одна из самых тревожных тем — использование ИИ для создания дипфейков и фишинговых схем. Машины научились имитировать голоса, мимику и поведение реальных людей. Хизер Эдкинс уверена: человечество ответит на это новой культурой цифровой проверки.

"Моя гипотеза заключается в том, что дипфейки и возможность создавать цифровые личности на самом деле сблизят нас как людей", — сказала Эдкинс.

Она привела пример: когда кто-то звонит и утверждает, что это родственник, люди уже инстинктивно проверяют личность вопросами вроде "Что мы делали на моё 16-летие?". Эти маленькие тесты становятся новой формой человеческой аутентификации.

Мир, в котором никому нельзя верить

По словам Эдкинс, в некоторых странах уже формируется своеобразный "иммунитет к доверию". Люди не верят ни новостям, ни видео, ни фотографиям. Даже реальные события вызывают сомнения.

"В некоторых частях мира никто больше не верит ничему, что есть в интернете. Они подвергают сомнению всё: каждую новость, каждую фотографию", — подчеркнула она.

Этот скептицизм, по мнению эксперта, станет естественным механизмом защиты. Да, он может подрывать веру в реальность, но зато делает общество осторожнее.

Самозащитные системы

Следующий этап — появление самообучающихся защитных платформ, которые смогут реагировать на угрозы в реальном времени.

"Мы движемся к тому, чтобы задача инженера по безопасности заключалась в обучении машины… когда система как бы защищает себя сама", — пояснила Эдкинс.

Идея заключается в том, что специалист больше не будет вручную устранять каждую уязвимость. Его роль — обучить ИИ понимать контекст бизнеса, анализировать риски и самостоятельно выбирать меры защиты.

Сравнение: традиционная безопасность vs ИИ-защита

Критерий Классическая защита ИИ-защита
Скорость реакции Минуты и часы Миллисекунды
Масштаб анализа Ограничен людьми Глобальный, непрерывный
Прогнозирование атак Постфактум Предиктивное
Адаптация к угрозам Ручная настройка Автоматическое обучение
Стоимость Высокие постоянные затраты Снижается после внедрения

Советы шаг за шагом: как использовать ИИ в защите

  1. Начните с аудита рисков. Определите процессы, где автоматизация может ускорить реакцию без ущерба для контроля.

  2. Выберите безопасные модели. Используйте проверенные инструменты (Google Security AI, Microsoft Sentinel, IBM QRadar).

  3. Создайте изолированную среду. Тестируйте алгоритмы в песочницах, прежде чем допускать их к боевым системам.

  4. Настройте прозрачность. Все действия ИИ должны логироваться и быть подотчётными команде безопасности.

  5. Регулярно обновляйте модели. Новые угрозы требуют актуальных данных и контекстного обучения.

Ошибка → Последствие → Альтернатива

Доверие без ограничений → ИИ может выйти из-под контроля → внедряйте чёткие правила доступа и отслеживания.
Недооценка фишинга и дипфейков → компрометация персональных данных → используйте голосовые и биометрические подтверждения.
Игнорирование человеческого фактора → пользователи становятся уязвимым звеном → проводите тренинги по цифровой гигиене.

А что если…

…ИИ начнёт атаковать системы самостоятельно? Такие сценарии уже рассматриваются. Разработчики создают системы "взаимного сдерживания", где одни модели контролируют другие.

…вирус будет создан ИИ? Это возможно, но в ответ появятся защитные ИИ, способные локализовать угрозу быстрее человека.

…всё станет автоматизированным? Тогда роль человека сместится к управлению стратегией и этическим надзором.

Плюсы и минусы ИИ в кибербезопасности

Плюсы Минусы
Быстрая реакция на угрозы Риск непредсказуемых решений
Улучшенная аналитика и прогноз Сложность объяснения решений
Снижение нагрузки на персонал Возможные сбои и ложные тревоги
Предиктивная защита Угроза злоупотреблений технологиями

Мифы и правда

Миф: ИИ заменит специалистов по безопасности.
Правда: он автоматизирует рутину, но ответственность остаётся за человеком.

Миф: ИИ нельзя контролировать.
Правда: современные системы ограничиваются рамками песочниц и политиками безопасности.

Миф: дипфейки разрушат доверие.
Правда: они, наоборот, заставят людей внимательнее проверять источники и укрепят культуру цифровой осторожности.

Три факта о будущем ИИ-защиты

• Более 80% атак в 2025 году будут обнаруживаться с помощью ИИ-инструментов.
• Крупные корпорации уже внедряют автономные "киберсторожа", способные блокировать угрозу без участия человека.
• В ближайшие годы появятся стандарты "этичного ИИ-защитника", регулирующие допустимые пределы автономии.

Исторический контекст

  1. 2010-е: автоматизация киберзащиты с помощью скриптов и SIEM-систем.

  2. 2020-2023: внедрение машинного обучения для анализа сетевых аномалий.

  3. 2024-2025: переход к автономным агентам ИИ, способным защищать сети в реальном времени.

Подписывайтесь на NewsInfo.Ru

Читайте также

Эксперты предупреждают: развитие общего интеллекта ИИ может разделить человечество сегодня в 6:36
Газонокосилка, шляпа и конец цивилизации: как безобидные советы ИИ ведут к катастрофе

Что произойдёт, если сверхразумный искусственный интеллект начнёт влиять на поведение людей? Теория краха ИИ утверждает, что мир может разделиться на миллиарды маленьких правд.

Читать полностью »
Проект Evergreen помогает студентам Дартмута управлять стрессом с помощью искусственного интеллекта сегодня в 5:36
Цифровой коуч, который замечает, когда ты забыл поесть: у студентов появился новый союзник

Дартмут запускает Evergreen — гиперлокальный ИИ-коуч для повседневной поддержки студентов. Как работают подсказки, где границы ИИ и что покажут испытания?

Читать полностью »
Эксперт Зубарев: даже специалист не отличит фейковое видео от настоящего вчера в 22:39
Глазам больше нельзя верить: простые приёмы, чтобы распознать подделку от нейросети

ИИ-шутки становятся всё изощрённее: теперь нейросети могут "заселить" ваш дом незнакомцами на фото. Как распознать подделку и не поддаться панике?

Читать полностью »
В Австралийском католическом университете 6 тысяч студентов обвинили в использовании ИИ вчера в 21:16
Алгоритм против студентов: ИИ обвинил 6 000 человек — и никто не понял, за что

Австралийский университет обвинил тысячи студентов в использовании ИИ, полагаясь на алгоритмы Turnitin. Почему доверие машинам обернулось нарушением академической справедливости?

Читать полностью »
Apple готовит AirPods 5 и новую версию AirPods Pro с чипом H3 — Марк Гурман вчера в 20:12
Звук будущего уже прогревает двигатели: Apple готовит чип, который изменит сами AirPods

Apple готовит революцию в линейке AirPods: новый чип H3, функции здоровья и мини-камеры в Pro-версии. Что известно о грядущих наушниках — разбираемся подробно.

Читать полностью »
Google введёт трёхмесячное эмбарго на исходные коды патчей Android вчера в 19:17
Пока вы спите, ваш Android не знает, как защищаться: Google ввела эмбарго на безопасность

Google изменила правила публикации патчей Android, скрыв их под NDA. Почему отчёт за октябрь оказался пустым — и как GrapheneOS нашёл выход из новой политики?

Читать полностью »
Искусственный интеллект стал самым популярным направлением в ИТ среди россиян — GitInSky вчера в 18:02
Пока одни боятся, другие кодят будущее: зачем треть россиян мечтает служить машинам

Все больше россиян мечтают работать в сфере искусственного интеллекта. Почему ИИ притягивает внимание, какие направления выбирают молодые специалисты и что мешает им начать путь в технологиях?

Читать полностью »
Риши Сунак вошёл в консультативные советы Microsoft и Anthropic вчера в 17:16
От Даунинг-стрит к ИИ: Риши Сунак теперь советует тем, кто пишет будущее

Бывший премьер-министр Великобритании Риши Сунак вошёл в советы Microsoft и Anthropic. Зачем техногигантам политик мирового уровня — и что он будет делать в сфере ИИ?

Читать полностью »