Tag: AIGC

Phi-4 на Microsoft: Компактен AI

Phi-4 на Microsoft предефинира ефективността в AI, предлагайки модели с висока производителност в компактен размер. Тези модели обработват текст, изображения и реч, като същевременно изискват значително по-малко изчислителна мощност, доказвайки, че мощността може да дойде и в малки опаковки.

Phi-4 на Microsoft: Компактен AI

RISC-V и AI: Отворен код

Възходът на RISC-V като архитектура за изчисления, ориентирана към AI. Open-source архитектурата RISC-V може да е идеалният партньор за open-source AI. Xuantie C930, първият CPU от сървърен клас, съчетава висока производителност и AI.

RISC-V и AI: Отворен код

AR очилата на Rokid: AI бъдеще

Rokid, китайски производител на AR устройства, интегрира AI в очила. Демонстрация предизвика вълнение на пазара. Технологията, задвижвана от Alibaba Qwen LLMs, предлага практични приложения на достъпна цена. Това е показателно за амбициите на Китай в областта на AI.

AR очилата на Rokid: AI бъдеще

Sopra Steria и Mistral AI в AI съюз

Sopra Steria и Mistral AI обединяват усилия за предоставяне на авангардни, суверенни и индустриализирани решения за генеративен изкуствен интелект, пригодени за големи европейски предприятия и публични администрации, гарантирайки сигурност на данните и персонализиране.

Sopra Steria и Mistral AI в AI съюз

Muon и Moonlight нови ИИ техники

Изследователи от Moonshot AI представят Muon и Moonlight оптимизиращи мащабни езикови модели с ефективни техники за обучение намаляващи изчислителните разходи и подобряващи производителността

Muon и Moonlight нови ИИ техники

Kimi Отворен Код Лунна Светлина

Kimi на Moonshot AI разкрива „Moonlight“ хибриден експертен модел с 30 милиарда и 160 милиарда параметъра обучен с Muon Той постига превъзходна производителност и ефективност използвайки 57 трилиона токена.

Kimi Отворен Код Лунна Светлина

Baichuan-M1 Медицински езикови модели

Baichuan-M1 е серия големи езикови модели обучени на 20 трилиона токена със специален фокус върху подобряване на медицинските възможности и справяне с предизвикателства като недостига на данни.

Baichuan-M1 Медицински езикови модели

AI моделите се борят с точността на световната история - проучване показва

Скорошно проучване разкрива значителен недостатък в разбирането на световната история от страна на изкуствения интелект. Дори най-напредналите модели, като GPT-4, се затрудняват с исторически въпроси, което поражда опасения относно тяхната надеждност в области, изискващи задълбочено познаване на миналото.

AI моделите се борят с точността на световната история - проучване показва

Мащабиране на Извода на Дифузионни Модели Нова Парадигма

Изследване на ефективността на мащабирането по време на извод при дифузионни модели, откривайки, че увеличаването на изчислителните ресурси води до по-високо качество на генерираните образци. Рамката позволява гъвкави комбинации от компоненти, а търсенето на по-добър шум е друг начин за мащабиране на NFE. Използват се верификатори и алгоритми за намиране на оптимален шум, като се тестват различни сценарии и алгоритми за търсене. Прилага се към по-големи текстово-базирани генериращи задачи, като се анализира съгласуването на верификатор-задача и ефективността на алгоритъма. Методът е съвместим с фино настроени модели и изследва ефектите от различни измерения на изчисленията по време на извод, като показва ефективността на мащабирането дори при по-малки дифузионни модели.

Мащабиране на Извода на Дифузионни Модели Нова Парадигма

Нов механизъм за внимание намалява KV кеша

В статията се представя нов механизъм за внимание, наречен Multi-matrix Factorization Attention (MFA), който значително намалява потреблението на памет при извод на големи езикови модели (LLM). MFA превъзхожда MLA по производителност и се доближава до MHA, като същевременно намалява използването на KV кеша до 93.7%. Механизмът е проектиран за простота, лесна възпроизводимост и съвместимост с различни методи за позиционно вграждане. Изследването анализира общия дизайн на механизмите за внимание и идентифицира ключови измерения, свързани с капацитета. MFA постига по-високи стойности на TER и SLSD в сравнение с MQA и MLA. Експерименталните резултати показват, че MFA поддържа отлична производителност дори при по-големи мащаби, като същевременно осигурява значителни икономии на памет.

Нов механизъм за внимание намалява KV кеша