Кабельная индустрия стремительно развертывает сети DOCSIS 4.0. Этот новый стандарт ставит многогранные задачи, затрагивающие персонал, процедуры и технологии. Операторы мультисистем (MSO) сталкиваются со сложными решениями в области планирования пропускной способности, текущего обслуживания и устранения неполадок между сетями доступа и ядром сети. И все это при постоянном стремлении улучшить качество обслуживания конечных пользователей. Генеративный ИИ предлагает MSO платформу для оптимизации этого процесса. Давайте рассмотрим, как именно.
Улучшение баз знаний с помощью Advanced Chunking
Планирование пропускной способности сети включает в себя принятие важных решений: когда разделять узлы, как распределять спектр и как найти оптимальный баланс между восходящей и нисходящей пропускной способностью. Инженерные группы должны интерпретировать обширную, фрагментированную документацию – отраслевые спецификации, руководства по оборудованию поставщиков и внутренние руководства – чтобы извлечь информацию и применить технический опыт для принятия перспективных решений.
Центры управления сетью (NOC) управляют огромными объемами данных телеметрии, аварийных сигналов и показателей производительности, требуя быстрого диагностирования аномалий. Эволюция виртуальных систем termination кабельных модемов (vCMTS) еще больше увеличит объемы телеметрии, при этом непрерывный поток данных будет поступать с интервалом всего в несколько секунд. Это резко контрастирует с традиционным опросом по протоколу Simple Network Management Protocol (SNMP), который может выполняться не чаще, чем каждые 15–30 минут.
Не все инженеры NOC обладают глубокими знаниями DOCSIS 4.0. Необходимость поиска процедур устранения неполадок может замедлить внедрение и затруднить текущую поддержку. Эксперименты с использованием общих, широко доступных больших языковых моделей (LLM) для ответа на вопросы, специфичные для предметной области, такие как планирование пропускной способности DOCSIS, показали ненадежные результаты. Эти модели часто путают европейские и североамериканские стандарты, предоставляя противоречивые или неверные рекомендации.
Одним из наиболее непосредственных применений генеративного ИИ является создание интеллектуальных помощников для консультирования по ресурсам, специфичным для предметной области. Сюда входят спецификации CableLabs DOCSIS, технические документы и внутренние инженерные руководства. Благодаря Amazon Bedrock MSO могут быстро масштабировать свои прототипы помощников до уровня production для таких задач, как поиск, обобщение и ответы на вопросы. Примеры включают определение момента разделения узлов, распределение каналов и ширины, интерпретацию показателей качества сигнала или сбор требований безопасности для кабельных модемов и CMTS.
Однако эффективность этих помощников зависит от нескольких факторов, помимо самих данных. Предварительная обработка данных, выбор правильной стратегии разбиения на фрагменты и внедрение средств контроля для управления имеют решающее значение.
Предварительная обработка данных
Важно понимать, что даже, казалось бы, безобидные элементы могут повлиять на качество результатов поиска. Например, наличие отдельных верхних и нижних колонтитулов на каждой странице спецификаций DOCSIS 4.0 и других источников данных может исказить контекст поиска. Простой шаг по удалению этой лишней информации продемонстрировал значительное улучшение качества результатов. Таким образом, предварительная обработка данных — это не универсальное решение, а скорее развивающийся подход, адаптированный к конкретным характеристикам каждого источника данных.
Стратегия Chunking
Chunking (разбиение на фрагменты) жизненно важен для разбиения больших документов на более мелкие, управляемые части, которые помещаются в контекстное окно генеративных систем ИИ. Это обеспечивает более эффективную и быструю обработку информации. Это также обеспечивает извлечение наиболее релевантного контента, снижает уровень шума, повышает скорость поиска и предоставляет более релевантный контекст в рамках процесса RAG.
Идеальный размер фрагмента и метод в значительной степени зависят от предметной области, контента, шаблонов запросов и ограничений LLM. Для технических спецификаций DOCSIS 4.0 можно рассмотреть несколько методов разбиения на фрагменты, каждый из которых имеет свои преимущества и ограничения:
Разбиение на фрагменты фиксированного размера: это самый простой подход, при котором контент делится на фрагменты предопределенного размера (например, 512 токенов на фрагмент). Он включает настраиваемый процент перекрытия для сохранения непрерывности. Хотя он предлагает предсказуемые размеры фрагментов (и затраты), он может разделить контент посередине предложения или разделить связанную информацию. Этот метод полезен для однородных данных с ограниченным учетом контекста и предсказуемыми низкими затратами.
Разбиение на фрагменты по умолчанию: этот метод разбивает контент на фрагменты размером примерно 300 токенов, соблюдая границы предложений. Это гарантирует, что предложения останутся нетронутыми, что делает его более естественным для обработки текста. Однако он предлагает ограниченный контроль над размером фрагмента и сохранением контекста. Он хорошо работает для базовой обработки текста, где важны полные предложения, но сложные взаимосвязи контента менее критичны.
Иерархическое разбиение на фрагменты: этот структурированный подход устанавливает отношения родитель-потомок внутри контента. Во время поиска система изначально извлекает дочерние фрагменты, но заменяет их более широкими родительскими фрагментами, чтобы предоставить модели более полный контекст. Этот метод отлично подходит для сохранения структуры документа и сохранения контекстных отношений. Он лучше всего работает с хорошо структурированным контентом, таким как техническая документация.
Семантическое разбиение на фрагменты: этот метод делит текст на основе значения и контекстных отношений. Он использует буфер, который учитывает окружающий текст для сохранения контекста. Хотя он более требователен к вычислительным ресурсам, он отлично подходит для сохранения согласованности связанных понятий и их взаимосвязей. Этот подход подходит для контента на естественном языке, такого как расшифровки разговоров, где связанная информация может быть разбросана.
Для документации DOCSIS с ее четко определенными разделами, подразделами и четкими отношениями родитель-потомок иерархическое разбиение на фрагменты оказывается наиболее подходящим. Способность этого метода сохранять связанные технические спецификации вместе, сохраняя при этом их связь с более широкими разделами, особенно ценна для понимания сложных спецификаций DOCSIS 4.0. Однако больший размер родительских фрагментов может привести к увеличению затрат. Важно провести тщательную проверку для ваших конкретных данных, используя такие инструменты, как оценка RAG и возможности LLM-as-a-judge.
Создание AI-агентов для DOCSIS 4.0
AI-агент, как определено Питером Норвигом и Стюартом Расселом, — это искусственная сущность, способная воспринимать свое окружение, принимать решения и предпринимать действия. Для платформы DOCSIS 4.0 Intelligence концепция AI Agent адаптирована как всеобъемлющая интеллектуальная автономная сущность. Эта агентная структура может планировать, рассуждать и действовать, имея доступ к курируемой базе знаний DOCSIS и средствам контроля для обеспечения интеллектуальной оркестровки.
Эксперименты показали, что zero-shot chain-of-thought prompting LLM для вопросов, специфичных для предметной области, таких как расчеты пропускной способности сети DOCSIS, могут привести к неточным результатам. Различные LLM могут по умолчанию использовать разные стандарты (европейские или американские), что подчеркивает необходимость более детерминированного подхода.
Чтобы решить эту проблему, можно создать DOCSIS AI Agent с помощью Amazon Bedrock Agents. Агент работает на основе LLM(ов) и включает в себя группы действий (Action Groups), базы знаний (Knowledge Bases) и инструкции (Prompts). Он определяет действия на основе вводимых пользователем данных и отвечает релевантными ответами.
Построение DOCSIS AI Agent
Вот разбивка строительных блоков:
Базовая модель (Foundation Model): Первый шаг — выбрать базовую модель (FM), которую агент будет использовать для интерпретации вводимых пользователем данных и подсказок. Amazon Nova Pro 1.0 может быть подходящим выбором из ряда современных FM, доступных в Amazon Bedrock.
Инструкции (Instructions): Четкие инструкции имеют решающее значение для определения того, для чего предназначен агент. Расширенные подсказки позволяют настраивать каждый этап оркестровки, включая использование функций AWS Lambda для анализа выходных данных.
Группы действий (Action Groups): Группы действий состоят из действий (Actions), которые являются инструментами, реализующими определенную бизнес-логику. Для расчета пропускной способности DOCSIS 4.0 можно написать детерминированную функцию Lambda, которая будет принимать входные параметры и выполнять расчет на основе определенной формулы.
Детали функции (Function Details): Необходимо определить детали функции (или схему API, совместимую с Open API 3.0). Например, план частот можно пометить как необходимый параметр, а параметры downstream или upstream могут быть необязательными.
Время выполнения AI Agent управляется операцией API InvokeAgent, которая состоит из трех основных этапов: предварительной обработки, оркестровки и постобработки. Этап оркестровки является ядром работы агента:
Ввод пользователя (User Input): Авторизованный пользователь инициирует AI Assistant.
Интерпретация и рассуждение (Interpretation and Reasoning): AI Agent интерпретирует ввод, используя FM, и генерирует обоснование для следующего шага.
Вызов группы действий (Action Group Invocation): Агент определяет применимую группу действий или запрашивает базу знаний.
Передача параметров (Parameter Passing): Если необходимо вызвать действие, агент отправляет параметры настроенной функции Lambda.
Ответ функции Lambda (Lambda Function Response): Функция Lambda возвращает ответ вызывающему API агента.
Генерация наблюдения (Observation Generation): Агент генерирует наблюдение на основе вызова действия или обобщения результатов из базы знаний.
Итерация (Iteration): Агент использует наблюдение для дополнения базовой подсказки, которая затем повторно интерпретируется FM. Этот цикл продолжается до тех пор, пока пользователю не будет возвращен ответ или не будет запрошена дополнительная информация.
Дополнение базовой подсказки (Base Prompt Augmentation): Во время оркестровки шаблон базовой подсказки дополняется инструкциями агента, группами действий и базами знаний. Затем FM прогнозирует наилучшие шаги для выполнения ввода пользователя.
Выполнив эти шаги, можно создать DOCSIS AI Agent, способный вызывать инструмент для расчета пропускной способности DOCSIS с использованием определенной формулы. В практических сценариях несколько агентов могут работать вместе над сложными задачами, используя общие базы знаний.
Установление средств контроля для ответственного ИИ
Важнейшим аспектом любой реализации ИИ является обеспечение ответственного и этичного использования. В рамках надежной стратегии ответственного ИИ с самого начала следует внедрить меры безопасности. Для обеспечения релевантного и безопасного взаимодействия с пользователем в соответствии с организационными политиками MSO можно использовать Amazon Bedrock Guardrails.
Bedrock Guardrails позволяют определять политики для оценки вводимых пользователем данных. К ним относятся независимые от модели оценки с использованием проверок контекстного заземления, блокировка запрещенных тем с помощью фильтров контента, блокировка или редактирование личной информации (PII) и обеспечение соответствия ответов настроенным политикам.
Например, определенные действия, такие как манипулирование чувствительными конфигурациями сети, могут быть ограничены для определенных ролей пользователей, таких как агенты call-центров первой линии.
Пример: предотвращение несанкционированных изменений конфигурации
Рассмотрим сценарий, в котором новый инженер службы поддержки пытается отключить фильтрацию MAC-адресов на модеме абонента в целях устранения неполадок. Отключение фильтрации MAC-адресов представляет угрозу безопасности, потенциально разрешая несанкционированный доступ к сети. Bedrock Guardrail можно настроить так, чтобы запрещать такие чувствительные изменения и возвращать пользователю настроенное сообщение.
Пример: защита конфиденциальной информации
Другой пример связан с обработкой конфиденциальной информации, такой как MAC-адреса. Если пользователь случайно вводит MAC-адрес в подсказку чата, Bedrock Guardrail может идентифицировать этот шаблон, заблокировать подсказку и вернуть предопределенное сообщение. Это предотвращает попадание подсказки в LLM, гарантируя, что конфиденциальные данные не будут обрабатываться ненадлежащим образом. Вы также можете использовать регулярное выражение для определения шаблонов, которые guardrail должен распознавать и реагировать на них.
Bedrock Guardrails обеспечивают последовательный и стандартизированный подход к защите безопасности в различных FM. Они предлагают расширенные функции, такие как проверки контекстного заземления и автоматические проверки рассуждений (символьный ИИ), чтобы гарантировать, что выходные данные соответствуют известным фактам и не основаны на сфабрикованных или противоречивых данных.
Путь вперед: использование ИИ для DOCSIS 4.0 и не только
Переход на DOCSIS 4.0 является критическим моментом для кабельных операторов. ИИ может значительно ускорить этот процесс. Эффективная реализация ИИ не обязательно требует сложных платформ или специализированных библиотек. Прямой и прогрессивный подход часто оказывается более успешным:
Начните с простого: Начните с улучшения базовых реализаций RAG для повышения производительности сотрудников, уделяя особое внимание отраслевым и предметно-специфичным вариантам использования.
Продвигайтесь постепенно: Переходите к агентным шаблонам для автоматизированного принятия решений и обработки сложных задач.
Интегрируя базы знаний, AI-агентов и надежные средства контроля, MSO могут создавать безопасные, эффективные и ориентированные на будущее приложения ИИ. Это позволит им идти в ногу с достижениями в области DOCSIS 4.0 и кабельных технологий.
Цифровая трансформация кабельной индустрии ускоряется, и интеграция ИИ становится конкурентным императивом. Операторы, использующие эти технологии, имеют больше возможностей для обеспечения превосходного качества обслуживания, оптимизации производительности сети и повышения эффективности работы. Этот совместный подход, сочетающий ИИ и человеческий опыт, позволит создать более отказоустойчивые, эффективные и интеллектуальные сети будущего.