Безопасность ИИ и риски внедрения ИИ-агентов

что важно учесть при интеграции
К 2026 году внедрение искусственного интеллекта стало базовым элементом развития бизнеса. Компании используют генеративные модели для разработки, аналитики, поддержки и автоматизации внутренних процессов. Но вместе с этим меняется и ландшафт угроз: вопросы, связанные с безопасностью ИИ, больше нельзя рассматривать как второстепенные.
Каждая новая интеграция — будь то модель, AI-ассистент или агент — фактически расширяет цифровой периметр компании. При этом в отличие от классических систем, поведение ИИ не всегда предсказуемо, а значит, требует отдельного подхода к контролю и защите.

Сегодня на первый план выходит не только защита данных, но и контроль того, как именно ИИ действует внутри инфраструктуры. Это включает и защиту моделей ИИ, и управление доступом, и мониторинг действий AI-агентов.
Основные риски внедрения ИИ-агентов и новая реальность безопасности ИИ
Одним из ключевых факторов риска становится несанкционированное использование ИИ внутри компании — так называемый Shadow AI. Этот процесс редко выглядит как осознанное нарушение: сотрудники используют внешние модели для ускорения задач, подключают плагины или внедряют AI-инструменты без централизованного контроля.

В результате формируются новые каналы утечек и уязвимостей, которые сложно обнаружить традиционными средствами. Данные могут передаваться через промпты, внутренние документы — оказываться во внешних сервисах, а действия AI остаются без должного аудита.

По оценкам Gartner, уже в ближайшие годы значительная доля инцидентов информационной безопасности будет связана с генеративным ИИ. Параллельно усиливается давление со стороны регулирования: для российских компаний вопросы защиты данных, включая требования 152-ФЗ, напрямую связаны с использованием AI-инструментов.

На этом фоне меняется и рынок. Во всем мире растет объем инвестиций в технологии, обеспечивающие безопасность ИИ и защиту AI-инфраструктуры. Бизнес постепенно переходит от экспериментов к системному подходу, понимая, что риски внедрения ИИ-агентов затрагивают не только данные, но и операционные процессы.

В России также появляются решения для безопасности ИИ. В частности, разрабатываются системы, которые позволяют видеть, какие действия выполняют AI-агенты, и контролировать их поведение в реальном времени:
Узнайте подробнее о подходах к контролю и безопасности AI-агентов
КиберАгентРевью — система, обеспечивающая мониторинг и анализ действий AI-агентов внутри корпоративной среды
Контроль действий AI-агентов: почему классическая защита не справляется
По мере развития технологий фокус смещается: если раньше основное внимание уделялось защите данных, то сегодня критической становится проблема действий.
AI-агенты получают доступ к корпоративным системам, работают с внутренними документами, взаимодействуют с API и могут выполнять операции в инфраструктуре. При этом во многих компаниях отсутствует полная прозрачность их поведения.

Это означает, что при возникновении инцидента становится сложно ответить на базовые вопросы: какие данные использовались, какой сценарий привел к ошибке, какие действия выполнял агент. Таким образом, риски внедрения ИИ-агентов выходят за пределы привычных моделей угроз.
Классификация угроз и зрелость безопасности ИИ: подход SAIMM
Чтобы не закрывать уязвимости хаотично и не «изобретать велосипед"можно использовать подход SAIMM (Swordfish: Secure AI Maturity Model). Это отечественный фреймворк, построенный на основе мировых практик по безопасности и адаптированный под российское законодательство, включая требования ФСТЭК и 152-ФЗ. В SAIMM безопасность ИИ раскладывается на домены:
  • Governance (Управление)
    Определяет внутренние политики безопасности и методики оценки рисков перед запуском AI-проектов. Включает разработку правил использования ИИ, процедур контроля, распределение ответственности и аудита всех AI-систем. Цель — минимизировать ошибки в процессе принятия решений, связанных с внедрением ИИ, и предотвратить Shadow AI.
  • Data & Privacy (Данные)
    Отвечает за обработку и хранение данных: очистку, анонимизацию, контроль доступа, мониторинг использования конфиденциальной информации. Особое внимание уделяется предотвращению утечек через промпты, API и внутренние инструменты AI. Этот домен обеспечивает соблюдение требований законодательства и внутренних регламентов при работе с персональными и корпоративными данными.
  • Model Security (Безопасность модели)
    На этом уровне защищают саму модель от атак: Data Poisoning, Adversarial Attacks и манипуляций входными запросами. Также контролируется сохранность весов и логики модели, чтобы исключить кражу интеллектуальной собственности. Задача — предотвратить искажения решений ИИ, которые могут напрямую повлиять на управленческие и финансовые процессы.
  • Supply Chain (Цепочка поставок)
    На этом уровне проводится сканирование сторонних библиотек и компонентов, проверяется целостность загруженных моделей и ведется безопасный реестр артефактов. Для этих задач хорошо подходят ASOC платформы наподобие российской CyberCodeReview. Платформы должны обеспечивать SAST и DAST анализ исходного кода и моделей как на уровне Supply Chain, так и Infrastructure & Operations. Такой подход помогает минимизировать риски внедрения внешних компонентов и предотвращает попадание уязвимостей в производственную среду.
  • Infrastructure & Operations (Инфраструктура)
    Отвечает за защиту среды обучения, управление доступом к вычислительным ресурсам, мониторинг аномалий и логирование операций моделей. Здесь происходит непрерывное наблюдение за эксплуатацией ИИ-систем и интеграцию с SOC для своевременного обнаружения угроз.
  • Agents (Агентные системы)
    Предотвращает риски автономного поведения агентов и AI-ассистентов: ограничивает права, контролирует доступ к данным и API, предотвращает несанкционированные действия. Включает аудит всех действий ИИ-агентов и периодическое тестирование на соответствие корпоративным требованиям безопасности. Эту функцию выполняет CyberAgentReview. 
SAIMM выделяет 4 уровня зрелости: от хаотичного (уровень 1), где безопасность держится на энтузиазме, до экспертного (уровень 4), где защита является непрерывным, автоматизированным процессом. 
Практические шаги: как выстроить безопасность ИИ-агентов
Если вы только планируете внедрение или уже пилотируете ИИ-решения, то вам поможет чек-лист действий, основанный на практике SML и логике SAIMM, выполнение которых уже выведет вашу компанию сразу на второй уровень зрелости:
Шаг 1. Проведите инвентаризацию
Прежде чем защищать, проанализируйте, что у вас есть. Ваши разработчики уже используют Copilot? Маркетинг отправляет внутреннюю документацию в публичные LLM?

Что делать: Создайте реестр ИИ-активов (модели, датасеты, агенты) и ответственных за их использование. Определите критичность каждого. Получите от ответственных лиц подтверждение, что документы под NDA не утекают через облачные LLM.
Шаг 2. Изолируйте и контролируйте агентов
Если вы внедряете ИИ-агентов, которые могут читать почту или делать записи в CRM, вы даете ИИ руки.

Что делать: Реализуйте принцип минимальных привилегий. Агент должен иметь доступ только к тем API и к тем данным, которые критически необходимы. Обязательно проведите мониторинг действий AI-агентов. Проведите аудит всех действий ИИ-агента за месяц работы. Периодически повторяйте его
Шаг 3. Входной контроль компонентов
Актуально компаниям, которые используют Open Source решения, предобученные модели или внешние библиотеки.

Что делать: Внедрите обязательное сканирование всех входящих артефактов. Сформируйте список всех компонентов, из которых состоит ваша ИИ-система. Настройте карантинную зону для новых весов моделей: проверяйте их на наличие вредоносных «закладок» до того, как они попадут в контур разработки.
Пройдите эти шаги, используя готовый инструмент
CyberAgent Review позволяет мониторить все действия ИИ-агентов, выявлять аномалии и контролировать использование данных в реальном времени, снижая вероятность инцидентов еще до их возникновения.

→ Подробнее о возможностях мониторинга и защиты AI-агентов
Важно помнить, что безопасность ИИ — это системная, заранее спланированная практика, без которой компания рискует столкнуться с утечками, ошибками моделей и репутационными потерями. Она позволяет видеть потенциальные риски заранее и управлять ими еще до того, как ИИ станет критическим элементом бизнес-процессов.

Интеграция защиты ИИ на всех уровнях снижает вероятность инцидентов, повышает доверие клиентов, партнеров и регуляторов, а также укрепляет устойчивость бизнеса и уверенность в цифровой стратегии 2026 года. 
Возьмите под контроль ИИ-агентов. Мы проведем анализ и разработаем стратегию защиты, адаптированную под вашу инфраструктуру
Контакты
Россия, г. Екатеринбург, улица Мамина-Сибиряка 101, офис 8.19

ООО "СМЛ Секьюрити"
ОГРН 1236600009744
ИНН 6670514098
Закажите консультацию
Расскажем, как снизить риски и обеспечить безопасность ИИ-решений
Нажимая "Отправить", я даю согласие на обработку данны