Tag: AIGC

Trionfo Open Source: RISC-V e AI

L'ascesa di RISC-V come architettura di calcolo nativa per l'AI. DeepSeek riduce i costi, aprendo la strada all'edge computing. Xuantie di Alibaba guida l'ecosistema RISC-V 'high-performance + AI', con il nuovo processore server-grade C930 e l'impegno open source.

Trionfo Open Source: RISC-V e AI

Occhiali AR di Rokid: Futuro AI in Cina

Rokid, produttore cinese di dispositivi AR, fa scalpore con i suoi occhiali AI. Dimostrazione virale, interesse del mercato e integrazione con i modelli linguistici di Alibaba (LLM) Qwen. Applicazioni pratiche, convenienza e ambizioni globali della Cina nell'AI.

Occhiali AR di Rokid: Futuro AI in Cina

Sopra Steria e Mistral AI: IA in Europa

Sopra Steria e Mistral AI collaborano per offrire soluzioni di IA generativa sovrane e industrializzate per grandi aziende e pubbliche amministrazioni europee. Una partnership strategica per l'innovazione e la sicurezza dei dati, promuovendo un'alternativa europea ai giganti tecnologici globali.

Sopra Steria e Mistral AI: IA in Europa

Muon e Moonlight Training LLM Efficiente

Ricercatori di Moonshot AI presentano Muon e Moonlight ottimizzando modelli linguistici su larga scala con tecniche di addestramento efficienti. Muon un nuovo ottimizzatore e Moonlight un modello MoE.

Muon e Moonlight Training LLM Efficiente

Kimi Open Source Modello Ibrido

Kimi di Moonshot AI svela Moonlight modello ibrido di esperti MoE con 30 e 160 miliardi di parametri addestrato su 57 trilioni di token Muon offre efficienza Pareto superiore.

Kimi Open Source Modello Ibrido

Baichuan M1 Nuovi Modelli Linguistici

Baichuan-M1 una serie di modelli linguistici di grandi dimensioni addestrati su 20T token focalizzati sul miglioramento delle capacità mediche superando le sfide dei dati limitati e della complessità del dominio medico offrendo un approccio innovativo per l'IA in sanità.

Baichuan M1 Nuovi Modelli Linguistici

AI: Modelli in Difficoltà con la Storia Mondiale - Uno Studio Rivela Inaccuratezze

Un recente studio rivela che i modelli di intelligenza artificiale, inclusi GPT-4, Llama e Gemini, mostrano significative lacune nella comprensione della storia mondiale, rispondendo correttamente solo al 46% delle domande. Questo solleva preoccupazioni sulla loro affidabilità in settori che richiedono una solida conoscenza del passato.

AI: Modelli in Difficoltà con la Storia Mondiale - Uno Studio Rivela Inaccuratezze

Scaling dell'inferenza nei modelli di diffusione un nuovo paradigma

Questo studio esplora l'efficacia dello scaling durante l'inferenza nei modelli di diffusione, dimostrando che l'aumento delle risorse computazionali porta a una migliore qualità dei campioni generati. Introduce un framework flessibile con verificatori e algoritmi di ricerca per ottimizzare il rumore di campionamento, rivelando che la ricerca di un rumore migliore è una dimensione chiave per il miglioramento delle prestazioni. I risultati indicano che modelli più piccoli con scaling dell'inferenza possono superare modelli più grandi senza, offrendo un approccio più efficiente all'AIGC.

Scaling dell'inferenza nei modelli di diffusione un nuovo paradigma

Nuovo Meccanismo di Attenzione Step Riduce la Cache KV

Un nuovo meccanismo di attenzione chiamato Multi-matrix Factorization Attention (MFA) e la sua variante MFA-Key-Reuse (MFA-KR) riducono significativamente l'uso della cache KV nei modelli linguistici, migliorando le prestazioni e l'efficienza.

Nuovo Meccanismo di Attenzione Step Riduce la Cache KV

ESM3 di Evolutionaryscale: Un Salto Nella Ricerca Proteica

ESM3, il modello biologico di Evolutionaryscale con 98 miliardi di parametri, rivoluziona la comprensione e la manipolazione delle proteine. L'API gratuita accelera la ricerca, con l'approvazione di Yann LeCun. ESM3 simula 5 trilioni di anni di evoluzione e genera nuove proteine con precisione, aprendo nuove frontiere nella medicina e nell'ingegneria proteica.

ESM3 di Evolutionaryscale: Un Salto Nella Ricerca Proteica