Agentic AI – это не просто постепенное улучшение в области кибербезопасности; это представляет собой фундаментальный сдвиг в нашем подходе к цифровой защите. Эта преобразующая технология открывает как беспрецедентные возможности, так и новые вызовы, требующие всесторонней переоценки наших стратегий безопасности. В отличие от обычных систем искусственного интеллекта, которые работают в рамках предопределенных параметров, Agentic AI демонстрирует автономное поведение, динамично взаимодействуя с различными инструментами, средами, другими агентами и даже конфиденциальными данными. Эта возможность, предлагая значительные преимущества, также представляет собой новый класс рисков, которые организации должны решать заблаговременно. Таким образом, современное предприятие вынуждено принять стратегию, состоящую из двух частей: использование Agentic AI для усиленной защиты и одновременная защита от его потенциальных уязвимостей.
Укрепление средств киберзащиты с помощью Agentic AI
Сегодня группы кибербезопасности сталкиваются с рядом проблем, в том числе с постоянной нехваткой квалифицированных специалистов и постоянно растущим объемом предупреждений о безопасности. Agentic AI предлагает многообещающее решение этих проблем, предоставляя инновационные методы для усиления обнаружения угроз, реагирования на инциденты и общей безопасности AI. Это требует фундаментальной реструктуризации экосистемы кибербезопасности, при этом Agentic AI служит краеугольным камнем будущей защиты.
Системы Agentic AI обладают способностью воспринимать, рассуждать и действовать автономно, что позволяет им решать сложные проблемы кибербезопасности с минимальным вмешательством человека. Эти системы могут также функционировать как интеллектуальные помощники, расширяя возможности экспертов и повышая их способность защищать цифровые активы, снижать риски и повышать эффективность центров управления безопасностью (SOC). Автоматизируя рутинные задачи и предоставляя аналитическую информацию в реальном времени, Agentic AI освобождает команды кибербезопасности для сосредоточения на принятии стратегических решений, тем самым масштабируя их опыт и потенциально уменьшая выгорание рабочей силы.
Рассмотрим, например, процесс реагирования на уязвимости безопасности программного обеспечения. Традиционно это трудоемкий и требующий больших затрат времени процесс. Однако с Agentic AI время, необходимое для оценки риска, связанного с новой общей уязвимостью или экспозицией (CVE), может быть сокращено до нескольких секунд. AI агенты могут быстро искать внешние ресурсы, оценивать внутреннюю среду и генерировать краткие сводки и приоритетные результаты, позволяя аналитикам быстро принимать обоснованные решения.
Кроме того, Agentic AI может значительно повысить эффективность сортировки предупреждений о безопасности. Большинство SOC ежедневно завалены потоком предупреждений, что затрудняет отличать критические сигналы от фонового шума. Традиционный подход к сортировке предупреждений часто медленный, повторяющийся и в значительной степени зависит от институциональных знаний и опыта отдельных аналитиков.
Системы Agentic AI могут ускорить этот рабочий процесс, автоматически анализируя предупреждения, собирая соответствующий контекст из различных инструментов безопасности, рассуждая о потенциальных первопричинах и принимая соответствующие меры в режиме реального времени. Эти системы могут даже помочь в адаптации новых аналитиков, кодифицируя знания опытных специалистов и преобразуя их в полезные сведения.
Ключевые преимущества Agentic AI в кибербезопасности:
- Автоматизированное обнаружение угроз: Непрерывно отслеживает сетевой трафик и системные журналы для выявления аномального поведения, указывающего на киберугрозы.
- Быстрое реагирование на инциденты: Автоматизирует процесс расследования и реагирования на инциденты безопасности, сокращая время до сдерживания и минимизируя ущерб.
- Управление уязвимостями: Выявляет и приоритизирует уязвимости в программном обеспечении и системах, обеспечивая проактивное исправление и смягчение последствий.
- Сортировка предупреждений о безопасности: Анализирует и приоритизирует предупреждения о безопасности, отфильтровывая ложные срабатывания и сосредотачиваясь на наиболее критических угрозах.
- Улучшенные операции безопасности: Автоматизирует рутинные задачи и предоставляет аналитическую информацию в реальном времени, повышая эффективность и результативность центров управления безопасностью.
Обеспечение безопасности приложений Agentic AI
Системы Agentic AI – это не пассивные наблюдатели; они активно рассуждают и действуют на основе информации, что создает новый набор проблем безопасности. Эти агенты могут получать доступ к конфиденциальным инструментам, генерировать выходные данные, которые вызывают последующие эффекты, или взаимодействовать с конфиденциальными данными в режиме реального времени. Чтобы обеспечить безопасное и предсказуемое поведение этих систем, организации должны внедрить надежные меры безопасности на протяжении всего жизненного цикла, от тестирования перед развертыванием до элементов управления во время выполнения.
Перед развертыванием систем Agentic AI в производство крайне важно провести тщательные учения по red teaming и тестированию. Эти учения помогают выявить слабые места в том, как агенты интерпретируют запросы, используют инструменты или обрабатывают неожиданные входные данные. Тестирование также должно включать оценку того, насколько хорошо агенты соблюдают предопределенные ограничения, восстанавливаются после сбоев и противостоят манипулятивным или враждебным атакам.
Защитные ограждения во время выполнения предоставляют средства для обеспечения соблюдения границ политики, ограничения небезопасного поведения и обеспечения соответствия выходных данных агента организационным целям. Эти защитные ограждения обычно реализуются с помощью программного обеспечения, которое позволяет разработчикам определять, развертывать и быстро обновлять правила, регулирующие, что могут говорить и делать AI агенты. Эта адаптируемость необходима для быстрого и эффективного реагирования на возникающие проблемы, поддержания последовательного и безопасного поведения агентов в производственной среде.
Основные меры безопасности для приложений Agentic AI:
- Red Teaming и тестирование: Имитирует реальные атаки для выявления уязвимостей и слабых мест в системах AI перед развертыванием.
- Защитные ограждения во время выполнения: Обеспечивает соблюдение границ политики и ограничивает небезопасное поведение во время работы системы AI.
- Конфиденциальные вычисления: Защищает конфиденциальные данные во время их обработки во время выполнения, снижая риск раскрытия информации.
- Безопасность цепочки поставок программного обеспечения: Обеспечивает подлинность и целостность компонентов AI, используемых в процессе разработки и развертывания.
- Регулярное сканирование кода: Выявляет уязвимости в программном коде и способствует своевременному исправлению и смягчению последствий.
Конфиденциальные вычисления
Средства защиты во время выполнения также играют жизненно важную роль в защите конфиденциальных данных и действий агента во время выполнения, обеспечивая безопасные и надежные операции. Конфиденциальные вычисления, например, помогают защитить данные во время их обработки во время выполнения, эффективно защищая данные в использовании. Это снижает риск раскрытия информации как во время обучения, так и во время фаз вывода для моделей AI всех размеров.
Безопасная программная платформа
Основой любого приложения Agentic AI является набор программных инструментов, библиотек и сервисов, используемых для создания стека умозаключений. Программная платформа должна быть разработана с использованием безопасного процесса жизненного цикла программного обеспечения, который поддерживает стабильность интерфейса прикладного программирования (API), устраняя при этом уязвимости на протяжении всего жизненного цикла программного обеспечения. Это включает в себя регулярное сканирование кода и своевременную публикацию исправлений безопасности или средств смягчения последствий.
Спецификация программного обеспечения (SBOM)
Подлинность и целостность компонентов AI в цепочке поставок имеют решающее значение для масштабирования доверия к системам Agentic AI. Программный стек AI Enterprise должен включать подписи контейнеров, подписание моделей и спецификацию программного обеспечения (SBOM), чтобы обеспечить проверку этих компонентов.
Каждая из этих технологий обеспечивает дополнительные уровни безопасности для защиты критически важных данных и ценных моделей в различных средах развертывания, от локальных до облачных.
Обеспечение безопасности инфраструктуры Agentic
Поскольку системы Agentic AI становятся более автономными и глубоко интегрированными в рабочие процессы предприятия, базовая инфраструктура, на которую они полагаются, становится критически важным компонентом общей позиции безопасности. Независимо от того, развернута ли она в центре обработки данных, на периферии или в заводском цехе, Agentic AI требует инфраструктуры, которая может обеспечивать изоляцию, видимость и контроль по замыслу.
Системы Agentic, по своей природе, работают со значительной автономией, позволяя им выполнять эффективные действия, которые могут быть как полезными, так и потенциально вредными. Эта неотъемлемая автономия требует защиты рабочих нагрузок во время выполнения, внедрения оперативного мониторинга и строгого соблюдения принципов нулевого доверия для эффективной защиты этих систем.
Блоки обработки данных (DPU)
DPU, в сочетании с расширенными решениями телеметрии, обеспечивают основу, которая позволяет приложениям получать доступ к всеобъемлющей видимости поведения рабочей нагрузки агента в режиме реального времени и точно выявлять угрозы с помощью расширенной судебно-медицинской экспертизы памяти. Развертывание элементов управления безопасностью непосредственно на DPU, а не на процессорах серверов, еще больше изолирует угрозы на уровне инфраструктуры, существенно уменьшая радиус взрыва потенциальных компромиссов и усиливая всеобъемлющую архитектуру безопасности повсюду.
Конфиденциальные вычисления поддерживаются на графических процессорах, поэтому технологии изоляции теперь можно распространить на конфиденциальную виртуальную машину, когда пользователи переходят с одного графического процессора на несколько графических процессоров. Безопасный AI обеспечивается защищенным PCIe и основан на конфиденциальных вычислениях, что позволяет клиентам масштабировать рабочие нагрузки с одного графического процессора на несколько графических процессоров. Это позволяет компаниям адаптироваться к своим потребностям Agentic AI, обеспечивая при этом безопасность наиболее эффективным способом.
Эти компоненты инфраструктуры поддерживают как локальную, так и удаленную аттестацию, что позволяет клиентам проверять целостность платформы перед развертыванием конфиденциальных рабочих нагрузок.
AI-фабрики
Эти возможности безопасности особенно важны в таких средах, как AI-фабрики, где системы Agentic начинают обеспечивать автоматизацию, мониторинг и принятие решений в реальном мире. Расширение Agentic AI до киберфизических систем повышает ставки, поскольку компромиссы могут напрямую повлиять на время безотказной работы, безопасность и целостность физических операций. Ведущие партнеры интегрируют полнофункциональные технологии кибербезопасности AI, чтобы помочь клиентам укрепить критически важную инфраструктуру от киберугроз в таких отраслях, как энергетика, коммунальные услуги и производство.
Основные соображения безопасности инфраструктуры для Agentic AI:
- Изоляция: Изоляция рабочих нагрузок Agentic AI от других систем для предотвращения горизонтального перемещения в случае компромисса.
- Видимость: Получение видимости поведения рабочей нагрузки Agentic AI в режиме реального времени для обнаружения угроз и реагирования на них.
- Контроль: Внедрение строгих элементов управления доступом и политик для ограничения действий, которые могут выполнять системы Agentic AI.
- Нулевое доверие: Предположение, что ни один пользователь или устройство не является по своей сути надежным, и проверка каждого запроса на доступ.
- Аттестация: Проверка целостности платформы перед развертыванием конфиденциальных рабочих нагрузок.
Укрепление доверия по мере того, как AI действует
В сегодняшнем быстро меняющемся ландшафте угроз каждое предприятие должно гарантировать, что его инвестиции в кибербезопасность включают AI для защиты рабочих процессов будущего. Каждая рабочая нагрузка должна быть ускорена, чтобы, наконец, предоставить защитникам инструменты для работы со скоростью AI.