Реальный вызов: Создание корпоративных AI-приложений
Несмотря на огромные ресурсы, ежегодно вкладываемые в обучение больших языковых моделей (LLM), остается существенное препятствие: эффективная интеграция этих моделей в практичные и полезные приложения.
Иллюзия тонкой настройки
Тонкая настройка и генерация, дополненная поиском (RAG), обычно считаются хорошо зарекомендовавшими себя методами расширения знаний и возможностей предварительно обученных моделей AI. Однако, как отмечает генеральный директор Aleph Alpha Йонас Андрулис, реальность сложнее.
“Год назад было широко распространено мнение, что тонкая настройка - это волшебное решение. Если система AI не работала должным образом, ответом была просто тонкая настройка. Это не так просто”, - пояснил он.
Хотя тонкая настройка может изменить стиль или поведение модели, это не самый эффективный подход для обучения новой информации. Ожидание, что тонкая настройка сама по себе может решить все проблемы применения AI, является заблуждением.
RAG: Альтернативный подход
RAG предлагает альтернативу, функционируя как библиотекарь, который извлекает информацию из внешнего архива. Этот подход позволяет обновлять и изменять информацию в базе данных без переобучения или тонкой настройки модели. Кроме того, сгенерированные результаты можно цитировать и проверять на точность.
“Конкретные знания всегда должны быть задокументированы и не храниться в параметрах LLM”, - подчеркнул Андрулис.
Хотя RAG предоставляет многочисленные преимущества, его успех зависит от надлежащей документации ключевых процессов, процедур и институциональных знаний в формате, понятном модели. К сожалению, это часто не так.
Даже при наличии документации предприятия могут столкнуться с проблемами, если документы или процессы основаны на данных вне распределения - данных, которые значительно отличаются от данных, использованных для обучения базовой модели. Например, модель, обученная исключительно на английских наборах данных, будет испытывать трудности с немецкой документацией, особенно если она содержит научные формулы. Во многих случаях модель может быть вообще не в состоянии интерпретировать данные.
Поэтому Андрулис предполагает, что для достижения значимых результатов обычно необходима комбинация тонкой настройки и RAG. Этот гибридный подход использует сильные стороны обоих методов для преодоления их индивидуальных ограничений.
Преодоление разрыва
Aleph Alpha стремится отличиться как европейский DeepMind, решая проблемы, которые мешают предприятиям и странам разрабатывать собственные суверенные AI.
Суверенный AI относится к моделям, обученным или тонко настроенным с использованием внутренних наборов данных страны на оборудовании, построенном или развернутом в пределах ее границ. Этот подход обеспечивает конфиденциальность, безопасность и контроль данных, которые имеют решающее значение для многих организаций и правительств.
“Мы стремимся быть операционной системой, основой для предприятий и правительств для построения собственной суверенной стратегии AI”, - заявил Андрулис. “Мы стремимся внедрять инновации там, где это необходимо, а также использовать открытый исходный код и самые современные технологии, где это возможно”.
Хотя это иногда включает в себя обучение моделей, таких как Pharia-1-LLM от Aleph, Андрулис подчеркивает, что они не пытаются воспроизвести существующие модели, такие как Llama или DeepSeek. Их цель - создать уникальные решения, которые решают конкретные задачи.
“Я всегда направляю наши исследования на то, чтобы сосредоточиться на значимо отличающихся вещах, а не просто копировать то, что делают все остальные, потому что это уже существует”, - сказал Андрулис. “Нам не нужно строить еще одну Llama или DeepSeek, потому что они уже существуют”.
Вместо этого Aleph Alpha концентрируется на создании фреймворков, которые упрощают и оптимизируют внедрение этих технологий. Недавним примером является их новая архитектура обучения без токенизатора, или “T-Free”, которая направлена на тонкую настройку моделей, способных более эффективно понимать данные вне распределения.
Традиционные подходы, основанные на токенизаторах, часто требуют большого количества данных вне распределения для эффективной тонкой настройки модели. Это требует больших вычислительных затрат и предполагает наличие достаточного количества данных.
Архитектура T-Free от Aleph Alpha обходит эту проблему, устраняя токенизатор. Раннее тестирование на их Pharia LLM на финском языке показало снижение затрат на обучение и углеродного следа на 70 процентов по сравнению с подходами, основанными на токенизаторах. Этот инновационный подход делает тонкую настройку более доступной и устойчивой.
Aleph Alpha также разработала инструменты для устранения пробелов в задокументированных знаниях, которые могут привести к неточным или бесполезным выводам.
Например, если два контракта, относящиеся к вопросу соответствия, противоречат друг другу, “система может обратиться к человеку и сказать: “Я обнаружил расхождение… не могли бы вы предоставить обратную связь о том, является ли это фактическим конфликтом?””, - пояснил Андрулис.
Информация, собранная с помощью этого фреймворка, называемого Pharia Catch, может быть возвращена в базу знаний приложения или использована для тонкой настройки более эффективных моделей. Эта петля обратной связи со временем повышает точность и надежность системы AI.
По словам Андрулиса, эти инструменты привлекли таких партнеров, как PwC, Deloitte, Capgemini и Supra, которые работают с конечными клиентами для внедрения технологии Aleph Alpha. Эти партнерства демонстрируют ценность и практичность решений Aleph Alpha в реальных приложениях.
Фактор оборудования
Программное обеспечение и данные - не единственные проблемы, с которыми сталкиваются сторонники суверенного AI. Оборудование - еще один важный фактор.
Различные предприятия и страны могут иметь конкретные требования к работе на оборудовании, разработанном внутри страны, или могут просто диктовать, где могут выполняться рабочие нагрузки. Эти ограничения могут существенно повлиять на выбор оборудования и инфраструктуры.
Это означает, что Андрулис и его команда должны поддерживать широкий спектр вариантов оборудования. Aleph Alpha привлекла эклектичную группу партнеров по оборудованию, включая AMD, Graphcore и Cerebras.
В прошлом месяце Aleph Alpha объявила о партнерстве с AMD для использования ускорителей серии MI300. Это сотрудничество позволит использовать передовое оборудование AMD для ускорения обучения и логического вывода AI.
Андрулис также отметил сотрудничество с Graphcore, приобретенной Softbank, и Cerebras, чьи ускорители CS-3 wafer-scale используются для обучения моделей AI для немецких вооруженных сил. Эти партнерства демонстрируют приверженность Aleph Alpha работе с различными поставщиками оборудования для удовлетворения конкретных потребностей своих клиентов.
Несмотря на это сотрудничество, Андрулис настаивает на том, что цель Aleph Alpha - не стать поставщиком управляемых услуг или облачных услуг. “Мы никогда не станем облачным провайдером”, - заявил он. “Я хочу, чтобы мои клиенты были свободны и не были заблокированы”. Эта приверженность свободе и гибкости клиентов отличает Aleph Alpha от многих других компаний AI.
Путь вперед: Растущая сложность
Заглядывая в будущее, Андрулис ожидает, что создание приложений AI станет более сложным, поскольку отрасль переходит от чат-ботов к агентским системам AI, способным решать более сложные задачи.
Агентский AI привлек значительное внимание в течение последнего года, когда разработчики моделей, разработчики программного обеспечения и поставщики оборудования обещают системы, которые могут выполнять многоэтапные процессы асинхронно. Ранние примеры включают Operator от OpenAI и API использования компьютера Anthropic. Эти агентские системы AI представляют собой значительный прогресс в возможностях AI.
“В прошлом году мы в основном сосредоточились на простых задачах, таких как обобщение документов или помощь в написании”, - сказал он. “Теперь становится все интереснее с вещами, которые, на первый взгляд, даже не кажутся проблемами genAI, где пользовательский опыт не является чат-ботом”. Этот переход к более сложным и интегрированным приложениям AI создает новые проблемы и возможности для отрасли.
Ключевые проблемы в создании корпоративных AI-приложений:
- Преодоление разрыва между обучением модели и интеграцией приложений: Эффективный перенос возможностей LLM в практические приложения остается серьезным препятствием.
- Преодоление ограничений тонкой настройки: Одной тонкой настройки часто недостаточно для обучения моделей AI новой информации или адаптации их к конкретным задачам.
- Обеспечение качества и доступности данных: RAG полагается на хорошо задокументированные и легкодоступные данные, которых часто не хватает во многих организациях.
- Обработка данных вне распределения: Модели AI должны быть в состоянии обрабатывать данные, которые отличаются от данных, на которых они были обучены, что требует специальных методов.
- Учет аппаратных ограничений: Различные предприятия и страны имеют различные аппаратные требования, которые необходимо учитывать.
- Поддержание конфиденциальности и безопасности данных: Суверенный AI требует обеспечения безопасной обработки и хранения данных в пределах границ страны.
- Разработка агентских систем AI: Создание приложений AI, которые могут выполнять сложные многоэтапные процессы асинхронно, является сложной, но перспективной областью исследований.
Ключевые возможности в создании корпоративных AI-приложений:
- Разработка инновационных решений AI: Проблемы в создании корпоративных AI-приложений создают возможности для разработки инновационных решений, которые удовлетворяют конкретные потребности.
- Использование технологий с открытым исходным кодом: Технологии с открытым исходным кодом могут помочь снизить затраты и ускорить разработку приложений AI.
- Сотрудничество с партнерами по оборудованию: Сотрудничество с партнерами по оборудованию может помочь обеспечить оптимизацию приложений AI для конкретных аппаратных платформ.
- Создание суверенных возможностей AI: Суверенный AI может предоставить странам и организациям больший контроль над своими данными и инфраструктурой AI.
- Преобразование отраслей с помощью AI: AI обладает потенциалом для преобразования отраслей путем автоматизации задач, улучшения принятия решений и создания новых продуктов и услуг.
Будущее корпоративных AI-приложений:
Будущее корпоративных AI-приложений, вероятно, будет характеризоваться:
- Повышенной сложностью: Приложения AI станут более сложными и интегрированными, требуя специальных знаний и инструментов.
- Большим вниманием к качеству данных: Качество данных будет становиться все более важным, поскольку приложения AI полагаются на точные и надежные данные.
- Большим акцентом на безопасность и конфиденциальность: Безопасность и конфиденциальность будут иметь первостепенное значение, поскольку приложения AI обрабатывают конфиденциальные данные.
- Более широким внедрением агентского AI: Агентские системы AI станут более распространенными, поскольку организации стремятся автоматизировать сложные задачи.
- Непрерывными инновациями: Область AI будет продолжать быстро развиваться, что приведет к новым прорывам и возможностям.
Решая проблемы и используя возможности, организации могут использовать возможности AI для преобразования своего бизнеса и создания лучшего будущего.