Tag: Fine-Tuning

GPT-4.1 на OpenAI: Крачка назад?

Новият GPT-4.1 на OpenAI, рекламиран като по-добър в следването на инструкции, може да е по-малко надежден от своите предшественици. Независими оценки показват потенциални проблеми с подравняването и повдигат въпроси за етичните компромиси в развитието на AI.

GPT-4.1 на OpenAI: Крачка назад?

GPT-4.1: Повод за безпокойство?

GPT-4.1 на OpenAI предизвиква въпроси за консистентност и безопасност. Независими тестове показват потенциални слабости в сравнение с предишния модел GPT-4o, особено при фино настройване с небезопасен код и работа с неясни инструкции.

GPT-4.1: Повод за безпокойство?

Малки AI модели: Навлизане в бизнеса

Анализ на Gartner показва преминаване към по-малки, специализирани AI модели в предприятията. Те ще се използват три пъти по-често от големите езикови модели (LLM) поради оптимизация на ресурсите и намаляване на разходите. Това е ключова промяна в AI стратегиите.

Малки AI модели: Навлизане в бизнеса

Разгадаване на биологични тайни: Езикови модели

C2S-Scale са LLM, които 'четат' и 'пишат' биологични данни на ниво единична клетка, трансформирайки генни профили в текст. Те правят данните от единични клетки по-достъпни и подобряват анализа на болести.

Разгадаване на биологични тайни: Езикови модели

Стартирайте AI на Mac: DeepSeek и LLM

Освободете силата на AI, като стартирате LLM локално на Mac. Ръководство за DeepSeek и други.

Стартирайте AI на Mac: DeepSeek и LLM

Специализация на LLM: Настройка, сливане, способности

Адаптиране на големи езикови модели (LLM) като Llama и Mistral за специализирани области чрез фина настройка (CPT, SFT, DPO, ORPO) и сливане на модели (SLERP). Изследване как сливането може да отключи нови, синергични способности, особено при по-големи модели, за научни и инженерни приложения.

Специализация на LLM: Настройка, сливане, способности

Разбиване на кода: Инструменти на Gemini за AI атаки

Изследователи откриват как функцията за фина настройка (fine-tuning) на Gemini на Google може да бъде използвана за създаване на по-ефективни атаки чрез инжектиране на подкани (prompt injection). Техниката 'Fun-Tuning' автоматизира процеса, използвайки собствените инструменти на модела срещу него, разкривайки уязвимости в 'затворените' AI системи.

Разбиване на кода: Инструменти на Gemini за AI атаки

Mistral AI вдига залога: Нов опонент с отворен код

Базираната в Париж Mistral AI пусна Mistral Small 3.1, мощен AI модел с отворен код под лиценз Apache 2.0. Той предизвиква гиганти като Google и OpenAI с голям контекстен прозорец, бърз извод и възможности за фина настройка, предлагайки достъпна и адаптивна алтернатива в AI пейзажа.

Mistral AI вдига залога: Нов опонент с отворен код

Дообучаване на Gemma: Практически аспекти

Разглеждане на практическото дообучаване (fine-tuning) на LLM, предимства, ограничения и реални приложения. Сравнение с RAG, техники като LoRA, квантизация и GRPO. Разходи, хардуер и внедряване.

Дообучаване на Gemma: Практически аспекти

Gemma 3 1B на Google за мобилни приложения

Gemma 3 1B на Google е компактен езиков модел (SLM) за мобилни и уеб приложения. Работи офлайн, защитава данните и предлага интеграция на естествен език. Разработчиците могат да го настройват фино за оптимална производителност.

Gemma 3 1B на Google за мобилни приложения