Эффект Deepseek-R1: Катализатор в LLM инновациях
Анализ показывает, что Deepseek-R1 ускорил разработку логических языковых моделей, благодаря высокому качеству данных и новым методам обучения.
Анализ показывает, что Deepseek-R1 ускорил разработку логических языковых моделей, благодаря высокому качеству данных и новым методам обучения.
OpenAI открывает возможности RFT для o4-mini, позволяя создавать частные модели, настроенные под конкретные бизнес-задачи и интегрированные в существующие системы.
Изучите дистилляцию знаний, технику, позволяющую большим моделям ИИ передавать знания меньшим моделям для большей эффективности.
Nvidia выпустила open-source модель Llama-Nemotron, превзошедшую DeepSeek-R1. Раскрыты детали обучения, включая синтетические данные, reinforcement learning и 140 000 часов на H100.
Несмотря на то, что DeepSeek-R2 ещё не вышел, малые модели Microsoft впечатляют способностями к рассуждению, обученными на небольшом наборе данных.
Обзор конференции Meta LlamaCon, посвященной большим языковым моделям (LLM) и их будущему развитию, включая мультимодальные приложения и API Llama.
DeepSeek снижает цены на базовые модели AI, что может революционизировать их внедрение в бизнес, устраняя основной барьер - стоимость. Это создаст новые возможности и ускорит технологический прогресс.
Microsoft Research представила Phi-4-reasoning-plus, открытую языковую модель для задач, требующих глубоких рассуждений. Модель, основанная на Phi-4, использует методы контролируемой тонкой настройки и обучения с подкреплением для повышения производительности в математике, науке, кодировании и логике.
Улучшение использования инструментов с помощью настройки моделей Amazon Nova через Amazon Bedrock. Методы настройки для повышения точности и эффективности.
Новая модель OpenAI, GPT-4.1, была заявлена как более послушная, но независимые оценки показывают, что она может быть менее надежной, чем предыдущие версии, вызывая вопросы об этике развития ИИ.