
Чёрный ящик под надзором: ФСТЭК создаёт стандарт безопасности для искусственного интеллекта
В России готовят новый стандарт в области информационной безопасности. Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует до конца 2025 года представить проект документа, регулирующего правила безопасной разработки систем искусственного интеллекта (ИИ).
Этот шаг станет логическим продолжением уже действующих требований к созданию программного обеспечения. Но в отличие от них новый стандарт будет учитывать именно те уязвимости и угрозы, которые характерны для технологий ИИ.
Первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025 сообщил, что документ находится в стадии активной подготовки и вскоре будет передан экспертному сообществу для обсуждения.
Зачем нужен отдельный стандарт для ИИ
Как поясняют специалисты, классический подход к безопасной разработке программ (SDLC) охватывает только общие методы защиты. Искусственный интеллект же имеет особенности: использование больших датасетов, машинного обучения и нейросетей создает уникальные угрозы, которых нет в традиционном софте.
По мнению директора департамента расследований T. Hunter Игоря Бедерова, документ станет детализированным методическим руководством, которое дополнит базовые стандарты новыми практиками — от моделирования угроз до анализа данных, на которых обучаются алгоритмы.
Консультант по безопасности Positive Technologies Алексей Лукацкий напомнил, что в 117-м приказе ФСТЭК, вступающем в силу 1 марта 2026 года, уже есть отдельный раздел о безопасности ИИ и датасетов. Однако там закреплено лишь само требование, без конкретных инструментов реализации. Новый стандарт должен восполнить этот пробел.
Чем ИИ отличается от традиционного ПО в плане безопасности
Параметр | Традиционное ПО | Системы ИИ |
Уязвимости | Ошибки в коде, логические изъяны | Некорректные данные для обучения, атаки на модели |
Контроль качества | Тестирование и аудит | Валидация датасетов, защита от подмены данных |
Обновления | Исправления багов и патчи | Перенастройка или дообучение модели |
Прозрачность | Полный доступ к логике работы | "Черный ящик" нейросетей |
Советы шаг за шагом: как готовиться к новым требованиям
-
Провести аудит текущих проектов ИИ и выявить потенциальные уязвимости.
-
Внедрить процессы проверки и очистки датасетов, исключив возможность подмены данных.
-
Разработать систему мониторинга для отслеживания атак на модели.
-
Назначить ответственных за кибербезопасность именно в части ИИ.
-
Подготовиться к обновлению документации и регламентов в соответствии с новым стандартом.
Ошибка → Последствие → Альтернатива
-
Ошибка: воспринимать ИИ как обычное ПО.
-
Последствие: игнорирование специфических угроз и рост рисков.
-
Альтернатива: применять отдельные практики защиты именно для машинного обучения.
-
Ошибка: хранить датасеты без контроля доступа.
-
Последствие: возможность подмены или кражи данных.
-
Альтернатива: сегментированное хранение и шифрование.
-
Ошибка: игнорировать требования приказа №117.
-
Последствие: нарушение регуляторных норм с 2026 года.
-
Альтернатива: заранее адаптировать процессы под новые правила.
А что если…
А что если новый стандарт ФСТЭК станет обязательным не только для государственных структур, но и для коммерческих компаний? В таком случае бизнесу придется вкладываться в доработку ИИ-проектов и аудит систем, что повысит издержки, но также укрепит доверие пользователей и партнеров.
Плюсы и минусы будущего стандарта
Плюсы | Минусы |
Повышение безопасности ИИ-систем | Рост затрат на внедрение |
Конкретные рекомендации для разработчиков | Увеличение сроков вывода проектов на рынок |
Соответствие мировым трендам | Риск дублирования с другими регламентами |
Укрепление защиты госструктур и бизнеса | Необходимость регулярных обновлений |
FAQ
Когда появится стандарт по ИИ?
ФСТЭК планирует представить проект к концу 2025 года.
Будет ли он обязательным?
Вероятно, для госструктур — да, для бизнеса — на усмотрение регуляторов и заказчиков.
Чем он отличается от приказа №117?
117-й приказ фиксирует сам факт требования, а новый стандарт даст конкретные методики и инструкции.
Мифы и правда
-
Миф: "ИИ не нуждается в отдельной защите".
Правда: атаки на датасеты и модели делают системы уязвимыми. -
Миф: "Стандарты лишь замедляют разработку".
Правда: они формируют доверие и снижают риски в долгосрочной перспективе. -
Миф: "ИИ в госуслугах защищен автоматически".
Правда: без специальных мер он столь же уязвим, как и любое ПО.
3 интересных факта
• В мире уже разрабатываются аналогичные стандарты: в ЕС и США обсуждаются правила сертификации ИИ.
• Одним из главных рисков считается "отравление данных", когда модель обучается на специально искаженной информации.
• Россия впервые готовит отдельный нормативный документ именно под системы ИИ.
Исторический контекст
-
2010-е годы — внедрение классических стандартов SDLC в России.
-
2020 год — первые обсуждения защиты ИИ в экспертном сообществе.
-
2023 год — глобальные дискуссии о регулировании искусственного интеллекта.
-
2026 год — вступает в силу приказ №117 ФСТЭК, включающий раздел о безопасности ИИ.
Подписывайтесь на NewsInfo.Ru