L'essor de l'inférence : le défi à Nvidia
L'inférence, phase d'utilisation des modèles d'IA, gagne en importance, ouvrant la porte à la concurrence pour Nvidia, dominant dans l'entraînement.
L'inférence, phase d'utilisation des modèles d'IA, gagne en importance, ouvrant la porte à la concurrence pour Nvidia, dominant dans l'entraînement.
Cerebras Systems étend son infrastructure de centres de données et s'associe à Hugging Face et AlphaSense pour défier Nvidia sur le marché de l'inférence IA haute vitesse. L'entreprise vise une capacité de traitement de plus de 40 millions de tokens par seconde, en se concentrant sur la rapidité et la rentabilité.
Foxconn dévoile FoxBrain, un modèle de langage (LLM) open-source pour le chinois traditionnel, basé sur Llama 3.1 et optimisé avec Nvidia. Il surpasse les modèles comparables et vise à démocratiser l'IA.