Le véritable défi : Créer des applications d’IA d’entreprise
Bien que d’innombrables ressources soient investies chaque année dans la formation de grands modèles linguistiques (LLM), un obstacle important demeure : l’intégration efficace de ces modèles dans des applications pratiques et utiles.
L’illusion du fine-tuning
Le fine-tuning et la génération augmentée par récupération (RAG) sont généralement considérés comme des méthodes bien établies pour améliorer les connaissances et les capacités des modèles d’IA pré-entraînés. Cependant, le PDG d’Aleph Alpha, Jonas Andrulis, souligne que la réalité est plus complexe.
“Il y a un an, on croyait largement que le fine-tuning était une solution magique. Si un système d’IA ne fonctionnait pas comme souhaité, la réponse était simplement le fine-tuning. Ce n’est pas si simple”, a-t-il expliqué.
Bien que le fine-tuning puisse modifier le style ou le comportement d’un modèle, ce n’est pas l’approche la plus efficace pour enseigner de nouvelles informations. S’attendre à ce que le fine-tuning seul puisse résoudre tous les problèmes d’application de l’IA est une idée fausse.
RAG : Une approche alternative
RAG offre une alternative en fonctionnant comme un bibliothécaire qui récupère des informations à partir d’une archive externe. Cette approche permet de mettre à jour et de modifier les informations dans la base de données sans réentraîner ni affiner le modèle. De plus, les résultats générés peuvent être cités et audités pour en vérifier l’exactitude.
“Les connaissances spécifiques doivent toujours être documentées et ne pas être stockées dans les paramètres du LLM”, a souligné Andrulis.
Bien que RAG offre de nombreux avantages, son succès dépend de la documentation appropriée des processus clés, des procédures et des connaissances institutionnelles dans un format que le modèle peut comprendre. Malheureusement, ce n’est souvent pas le cas.
Même lorsque la documentation existe, les entreprises peuvent rencontrer des problèmes si les documents ou les processus reposent sur des données hors distribution - des données qui diffèrent considérablement des données utilisées pour entraîner le modèle de base. Par exemple, un modèle entraîné uniquement sur des ensembles de données en anglais aura du mal avec la documentation en allemand, en particulier si elle contient des formules scientifiques. Dans de nombreux cas, le modèle peut être incapable d’interpréter les données.
Par conséquent, Andrulis suggère qu’une combinaison de fine-tuning et de RAG est généralement nécessaire pour obtenir des résultats significatifs. Cette approche hybride exploite les forces des deux méthodes pour surmonter leurs limites individuelles.
Combler le fossé
Aleph Alpha vise à se distinguer comme un DeepMind européen en s’attaquant aux défis qui empêchent les entreprises et les nations de développer leurs propres IA souveraines.
L’IA souveraine fait référence aux modèles entraînés ou affinés à l’aide des ensembles de données internes d’une nation sur du matériel construit ou déployé à l’intérieur de ses frontières. Cette approche garantit la confidentialité, la sécurité et le contrôle des données, qui sont essentiels pour de nombreuses organisations et gouvernements.
“Nous nous efforçons d’être le système d’exploitation, la base permettant aux entreprises et aux gouvernements de construire leur propre stratégie d’IA souveraine”, a déclaré Andrulis. “Nous visons à innover là où c’est nécessaire, tout en tirant parti des technologies open source et de pointe dans la mesure du possible.”
Bien que cela implique parfois la formation de modèles, tels que Pharia-1-LLM d’Aleph, Andrulis souligne qu’ils n’essaient pas de reproduire des modèles existants comme Llama ou DeepSeek. Leur objectif est de créer des solutions uniques qui répondent à des défis spécifiques.
“Je dirige toujours nos recherches pour qu’elles se concentrent sur des choses significativement différentes, pas seulement sur la copie de ce que tout le monde fait, car cela existe déjà”, a déclaré Andrulis. “Nous n’avons pas besoin de construire un autre Llama ou DeepSeek parce qu’ils existent déjà.”
Au lieu de cela, Aleph Alpha se concentre sur la construction de cadres qui simplifient et rationalisent l’adoption de ces technologies. Un exemple récent est leur nouvelle architecture de formation sans tokenizer, ou “T-Free”, qui vise à affiner les modèles capables de comprendre plus efficacement les données hors distribution.
Les approches traditionnelles basées sur un tokenizer nécessitent souvent de grandes quantités de données hors distribution pour affiner efficacement un modèle. Cela coûte cher en termes de calcul et suppose que des données suffisantes sont disponibles.
L’architecture T-Free d’Aleph Alpha contourne ce problème en éliminant le tokenizer. Les premiers tests sur leur Pharia LLM en langue finnoise ont montré une réduction de 70 % des coûts de formation et de l’empreinte carbone par rapport aux approches basées sur un tokenizer. Cette approche innovante rend le fine-tuning plus accessible et durable.
Aleph Alpha a également développé des outils pour combler les lacunes dans les connaissances documentées qui peuvent conduire à des conclusions inexactes ou inutiles.
Par exemple, si deux contrats pertinents pour une question de conformité se contredisent, “le système peut approcher l’humain et dire : ‘J’ai trouvé une divergence… pouvez-vous s’il vous plaît donner votre avis sur la question de savoir s’il s’agit d’un conflit réel ?’” a expliqué Andrulis.
Les informations recueillies grâce à ce cadre, appelé Pharia Catch, peuvent être réinjectées dans la base de connaissances de l’application ou utilisées pour affiner des modèles plus efficaces. Cette boucle de rétroaction améliore la précision et la fiabilité du système d’IA au fil du temps.
Selon Andrulis, ces outils ont attiré des partenaires comme PwC, Deloitte, Capgemini et Supra, qui travaillent avec les clients finaux pour mettre en œuvre la technologie d’Aleph Alpha. Ces partenariats démontrent la valeur et le caractère pratique des solutions d’Aleph Alpha dans les applications du monde réel.
Le facteur matériel
Les logiciels et les données ne sont pas les seuls défis auxquels sont confrontés les adoptants de l’IA souveraine. Le matériel est une autre considération essentielle.
Différentes entreprises et nations peuvent avoir des exigences spécifiques pour fonctionner sur du matériel développé au niveau national ou peuvent simplement dicter où les charges de travail peuvent s’exécuter. Ces contraintes peuvent avoir un impact significatif sur le choix du matériel et de l’infrastructure.
Cela signifie qu’Andrulis et son équipe doivent prendre en charge un large éventail d’options matérielles. Aleph Alpha a attiré un groupe éclectique de partenaires matériels, notamment AMD, Graphcore et Cerebras.
Le mois dernier, Aleph Alpha a annoncé un partenariat avec AMD pour utiliser ses accélérateurs de la série MI300. Cette collaboration tirera parti du matériel avancé d’AMD pour accélérer la formation et l’inférence de l’IA.
Andrulis a également souligné les collaborations avec Graphcore, acquise par Softbank, et Cerebras, dont les accélérateurs CS-3 à l’échelle de la tranche sont utilisés pour former des modèles d’IA pour les forces armées allemandes. Ces partenariats démontrent l’engagement d’Aleph Alpha à travailler avec divers fournisseurs de matériel pour répondre aux besoins spécifiques de ses clients.
Malgré ces collaborations, Andrulis insiste sur le fait que l’objectif d’Aleph Alpha n’est pas de devenir un fournisseur de services gérés ou de cloud. “Nous ne deviendrons jamais un fournisseur de cloud”, a-t-il déclaré. “Je veux que mes clients soient libres et sans être enfermés.” Cet engagement envers la liberté et la flexibilité des clients distingue Aleph Alpha de nombreuses autres entreprises d’IA.
La voie à suivre : Complexité croissante
Pour l’avenir, Andrulis prévoit que la création d’applications d’IA deviendra plus complexe à mesure que l’industrie passera des chatbots aux systèmes d’IA agentiques capables de résoudre des problèmes plus sophistiqués.
L’IA agentique a suscité une attention considérable au cours de la dernière année, les constructeurs de modèles, les développeurs de logiciels et les fournisseurs de matériel promettant des systèmes capables d’effectuer des processus en plusieurs étapes de manière asynchrone. Les premiers exemples incluent l’opérateur d’OpenAI et l’API d’utilisation de l’ordinateur d’Anthropic. Ces systèmes d’IA agentiques représentent une avancée significative dans les capacités de l’IA.
“L’année dernière, nous nous sommes principalement concentrés sur des tâches simples comme la synthèse de documents ou l’aide à la rédaction”, a-t-il déclaré. “Maintenant, cela devient plus excitant avec des choses qui, à première vue, ne semblent même pas être des problèmes de genAI, où l’expérience utilisateur n’est pas un chatbot.” Ce passage à des applications d’IA plus complexes et intégrées présente de nouveaux défis et opportunités pour l’industrie.
Principaux défis dans la création d’applications d’IA d’entreprise :
- Combler le fossé entre la formation des modèles et l’intégration des applications : Traduire efficacement les capacités des LLM en applications pratiques reste un obstacle important.
- Surmonter les limites du fine-tuning : Le fine-tuning seul est souvent insuffisant pour enseigner de nouvelles informations aux modèles d’IA ou les adapter à des tâches spécifiques.
- Assurer la qualité et l’accessibilité des données : RAG repose sur des données bien documentées et facilement accessibles, ce qui fait souvent défaut dans de nombreuses organisations.
- Gérer les données hors distribution : Les modèles d’IA doivent être capables de gérer les données qui diffèrent des données sur lesquelles ils ont été formés, ce qui nécessite des techniques spécialisées.
- Tenir compte des contraintes matérielles : Différentes entreprises et nations ont des exigences matérielles variables qui doivent être prises en considération.
- Maintenir la confidentialité et la sécurité des données : L’IA souveraine exige de s’assurer que les données sont traitées et stockées en toute sécurité à l’intérieur des frontières d’une nation.
- Développer des systèmes d’IA agentiques : La création d’applications d’IA capables d’effectuer des processus complexes en plusieurs étapes de manière asynchrone est un domaine de recherche difficile mais prometteur.
Principales opportunités dans la création d’applications d’IA d’entreprise :
- Développer des solutions d’IA innovantes : Les défis liés à la création d’applications d’IA d’entreprise créent des opportunités pour développer des solutions innovantes qui répondent à des besoins spécifiques.
- Tirer parti des technologies open source : Les technologies open source peuvent aider à réduire les coûts et à accélérer le développement d’applications d’IA.
- Collaborer avec des partenaires matériels : La collaboration avec des partenaires matériels peut aider à garantir que les applications d’IA sont optimisées pour des plates-formes matérielles spécifiques.
- Développer des capacités d’IA souveraines : L’IA souveraine peut offrir aux nations et aux organisations un plus grand contrôle sur leurs données et leur infrastructure d’IA.
- Transformer les industries avec l’IA : L’IA a le potentiel de transformer les industries en automatisant les tâches, en améliorant la prise de décision et en créant de nouveaux produits et services.
L’avenir des applications d’IA d’entreprise :
L’avenir des applications d’IA d’entreprise sera probablement caractérisé par :
- Une complexité accrue : Les applications d’IA deviendront plus complexes et intégrées, nécessitant une expertise et des outils spécialisés.
- Un plus grand accent sur la qualité des données : La qualité des données deviendra de plus en plus importante à mesure que les applications d’IA s’appuieront sur des données précises et fiables.
- Un accent plus important sur la sécurité et la confidentialité : La sécurité et la confidentialité seront primordiales à mesure que les applications d’IA traiteront des données sensibles.
- Une adoption plus large de l’IA agentique : Les systèmes d’IA agentiques deviendront plus répandus à mesure que les organisations chercheront à automatiser des tâches complexes.
- Une innovation continue : Le domaine de l’IA continuera d’évoluer rapidement, conduisant à de nouvelles percées et opportunités.
En relevant les défis et en saisissant les opportunités, les organisations peuvent exploiter la puissance de l’IA pour transformer leurs activités et créer un avenir meilleur.