Tag: Fine-Tuning

Эффект Deepseek-R1: Катализатор в LLM инновациях

Анализ показывает, что Deepseek-R1 ускорил разработку логических языковых моделей, благодаря высокому качеству данных и новым методам обучения.

Эффект Deepseek-R1: Катализатор в LLM инновациях

Персонализация AI: Тонкая настройка o4-mini с RFT

OpenAI открывает возможности RFT для o4-mini, позволяя создавать частные модели, настроенные под конкретные бизнес-задачи и интегрированные в существующие системы.

Персонализация AI: Тонкая настройка o4-mini с RFT

Демистификация дистилляции знаний: ИИ

Изучите дистилляцию знаний, технику, позволяющую большим моделям ИИ передавать знания меньшим моделям для большей эффективности.

Демистификация дистилляции знаний: ИИ

Новая модель Nvidia превзошла DeepSeek-R1

Nvidia выпустила open-source модель Llama-Nemotron, превзошедшую DeepSeek-R1. Раскрыты детали обучения, включая синтетические данные, reinforcement learning и 140 000 часов на H100.

Новая модель Nvidia превзошла DeepSeek-R1

Малая модель Microsoft затмевает всех!

Несмотря на то, что DeepSeek-R2 ещё не вышел, малые модели Microsoft впечатляют способностями к рассуждению, обученными на небольшом наборе данных.

Малая модель Microsoft затмевает всех!

LlamaCon от Meta: глубокий анализ LLM

Обзор конференции Meta LlamaCon, посвященной большим языковым моделям (LLM) и их будущему развитию, включая мультимодальные приложения и API Llama.

LlamaCon от Meta: глубокий анализ LLM

DeepSeek: Переход к корпоративному AI

DeepSeek снижает цены на базовые модели AI, что может революционизировать их внедрение в бизнес, устраняя основной барьер - стоимость. Это создаст новые возможности и ускорит технологический прогресс.

DeepSeek: Переход к корпоративному AI

Phi-4-Reasoning-Plus: Мощная модель Microsoft

Microsoft Research представила Phi-4-reasoning-plus, открытую языковую модель для задач, требующих глубоких рассуждений. Модель, основанная на Phi-4, использует методы контролируемой тонкой настройки и обучения с подкреплением для повышения производительности в математике, науке, кодировании и логике.

Phi-4-Reasoning-Plus: Мощная модель Microsoft

Настройка моделей Amazon Nova для инструментов

Улучшение использования инструментов с помощью настройки моделей Amazon Nova через Amazon Bedrock. Методы настройки для повышения точности и эффективности.

Настройка моделей Amazon Nova для инструментов

GPT-4.1 от OpenAI: Шаг назад?

Новая модель OpenAI, GPT-4.1, была заявлена как более послушная, но независимые оценки показывают, что она может быть менее надежной, чем предыдущие версии, вызывая вопросы об этике развития ИИ.

GPT-4.1 от OpenAI: Шаг назад?