Мужчина у компьютера
Мужчина у компьютера
Олег Белов Опубликована сегодня в 15:48

Чёрный ящик под надзором: ФСТЭК создаёт стандарт безопасности для искусственного интеллекта

ФСТЭК подготовит стандарт по безопасной разработке ИИ-систем к концу 2025 года

В России готовят новый стандарт в области информационной безопасности. Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует до конца 2025 года представить проект документа, регулирующего правила безопасной разработки систем искусственного интеллекта (ИИ).

Этот шаг станет логическим продолжением уже действующих требований к созданию программного обеспечения. Но в отличие от них новый стандарт будет учитывать именно те уязвимости и угрозы, которые характерны для технологий ИИ.

Первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025 сообщил, что документ находится в стадии активной подготовки и вскоре будет передан экспертному сообществу для обсуждения.

Зачем нужен отдельный стандарт для ИИ

Как поясняют специалисты, классический подход к безопасной разработке программ (SDLC) охватывает только общие методы защиты. Искусственный интеллект же имеет особенности: использование больших датасетов, машинного обучения и нейросетей создает уникальные угрозы, которых нет в традиционном софте.

По мнению директора департамента расследований T. Hunter Игоря Бедерова, документ станет детализированным методическим руководством, которое дополнит базовые стандарты новыми практиками — от моделирования угроз до анализа данных, на которых обучаются алгоритмы.

Консультант по безопасности Positive Technologies Алексей Лукацкий напомнил, что в 117-м приказе ФСТЭК, вступающем в силу 1 марта 2026 года, уже есть отдельный раздел о безопасности ИИ и датасетов. Однако там закреплено лишь само требование, без конкретных инструментов реализации. Новый стандарт должен восполнить этот пробел.

Чем ИИ отличается от традиционного ПО в плане безопасности

Параметр Традиционное ПО Системы ИИ
Уязвимости Ошибки в коде, логические изъяны Некорректные данные для обучения, атаки на модели
Контроль качества Тестирование и аудит Валидация датасетов, защита от подмены данных
Обновления Исправления багов и патчи Перенастройка или дообучение модели
Прозрачность Полный доступ к логике работы "Черный ящик" нейросетей

Советы шаг за шагом: как готовиться к новым требованиям

  1. Провести аудит текущих проектов ИИ и выявить потенциальные уязвимости.

  2. Внедрить процессы проверки и очистки датасетов, исключив возможность подмены данных.

  3. Разработать систему мониторинга для отслеживания атак на модели.

  4. Назначить ответственных за кибербезопасность именно в части ИИ.

  5. Подготовиться к обновлению документации и регламентов в соответствии с новым стандартом.

Ошибка → Последствие → Альтернатива

  • Ошибка: воспринимать ИИ как обычное ПО.

  • Последствие: игнорирование специфических угроз и рост рисков.

  • Альтернатива: применять отдельные практики защиты именно для машинного обучения.

  • Ошибка: хранить датасеты без контроля доступа.

  • Последствие: возможность подмены или кражи данных.

  • Альтернатива: сегментированное хранение и шифрование.

  • Ошибка: игнорировать требования приказа №117.

  • Последствие: нарушение регуляторных норм с 2026 года.

  • Альтернатива: заранее адаптировать процессы под новые правила.

А что если…

А что если новый стандарт ФСТЭК станет обязательным не только для государственных структур, но и для коммерческих компаний? В таком случае бизнесу придется вкладываться в доработку ИИ-проектов и аудит систем, что повысит издержки, но также укрепит доверие пользователей и партнеров.

Плюсы и минусы будущего стандарта

Плюсы Минусы
Повышение безопасности ИИ-систем Рост затрат на внедрение
Конкретные рекомендации для разработчиков Увеличение сроков вывода проектов на рынок
Соответствие мировым трендам Риск дублирования с другими регламентами
Укрепление защиты госструктур и бизнеса Необходимость регулярных обновлений

FAQ

Когда появится стандарт по ИИ?
ФСТЭК планирует представить проект к концу 2025 года.

Будет ли он обязательным?
Вероятно, для госструктур — да, для бизнеса — на усмотрение регуляторов и заказчиков.

Чем он отличается от приказа №117?
117-й приказ фиксирует сам факт требования, а новый стандарт даст конкретные методики и инструкции.

Мифы и правда

  • Миф: "ИИ не нуждается в отдельной защите".
    Правда: атаки на датасеты и модели делают системы уязвимыми.

  • Миф: "Стандарты лишь замедляют разработку".
    Правда: они формируют доверие и снижают риски в долгосрочной перспективе.

  • Миф: "ИИ в госуслугах защищен автоматически".
    Правда: без специальных мер он столь же уязвим, как и любое ПО.

3 интересных факта

• В мире уже разрабатываются аналогичные стандарты: в ЕС и США обсуждаются правила сертификации ИИ.
• Одним из главных рисков считается "отравление данных", когда модель обучается на специально искаженной информации.
• Россия впервые готовит отдельный нормативный документ именно под системы ИИ.

Исторический контекст

  1. 2010-е годы — внедрение классических стандартов SDLC в России.

  2. 2020 год — первые обсуждения защиты ИИ в экспертном сообществе.

  3. 2023 год — глобальные дискуссии о регулировании искусственного интеллекта.

  4. 2026 год — вступает в силу приказ №117 ФСТЭК, включающий раздел о безопасности ИИ.

Подписывайтесь на NewsInfo.Ru

Читайте также

Apple предупредила, что зарядка iPhone в чехле ускоряет износ батареи сегодня в 16:22

Хотите, чтобы iPhone прожил дольше? Запомните золотое правило зарядки, о котором все забывают

Вы удивитесь, но привычка заряжать iPhone в чехле или при экстремальных температурах может стоить ему долгой службы. Узнайте, что советует Apple.

Читать полностью »
Актер GTA V Стивен Огг заявил, что не испытывает интереса к GTA VI сегодня в 7:16

Он стал легендой GTA — и ему всё равно: Стивен Огг о VI части и Достоевском

Стивен Огг объяснил, почему не ждет выхода GTA VI и почему считает книги важнее видеоигр. Но при этом он не исключает возможного камео.

Читать полностью »
Игру Silent Hill f взломали за несколько часов после запуска раннего доступа сегодня в 6:23

Пираты прошли Silent Hill f раньше, чем те, кто её купил: как взломали игру до релиза

Silent Hill f утекла в сеть в день раннего доступа. Почему игру взломали так быстро, и как это скажется на будущем серии?

Читать полностью »
eBay приобрела норвежскую платформу секонд-хенда Tise для развития C2C-торговли сегодня в 5:16

Секонд-хенд, который нравится Gen Z: eBay берёт в команду модный стартап из Норвегии

eBay покупает Tise — социальную платформу для перепродажи одежды и интерьера. Что изменится для молодых покупателей и зачем это нужно компании?

Читать полностью »
Эксперты назвали RL-среды ключом к развитию ИИ-агентов нового поколения сегодня в 4:11

ИИ стал хитрым и ленивым? Вот почему даже лучшие агенты "читерят"

Индустрия ИИ делает ставку на обучение с подкреплением. RL-среды обещают революцию, но смогут ли они действительно вывести агентов на новый уровень?

Читать полностью »
Oracle назначила Клея Магоурка и Майка Сицилию содиректорами вместо Сафры Кац сегодня в 3:28

Два шефа вместо одного: в Oracle придумали новый способ управлять ИИ-империей

Oracle перестраивает руководство и усиливает участие в проекте Stargate. Как компания планирует конкурировать в гонке за лидерство в инфраструктуре ИИ?

Читать полностью »
Google интегрировала искусственный интеллект Gemini в телевизоры Google TV и Android TV сегодня в 2:16

Вместо списка фильмов — диалог: как ИИ меняет вечер перед экраном

Gemini выходит на экраны телевизоров Google TV. Что изменится для зрителей и почему это важный шаг для всей экосистемы Google?

Читать полностью »
OpenAI выбрала Nvidia стратегическим партнёром в области вычислений и сетей сегодня в 1:18

Nvidia бросает перчатку Microsoft: грядёт битва за контроль над искусственным интеллектом

Nvidia готова вложить в OpenAI до 100 млрд долларов и построить крупнейшую фабрику ИИ. Как это изменит рынок технологий и роль Microsoft?

Читать полностью »