DeepSeek : Vers l'adoption de l'IA en entreprise

DeepSeek Day Two : Un tournant vers l’adoption de l’IA en entreprise

DeepSeek, une startup chinoise en pleine ascension dans le domaine de l’IA, fait sensation avec ses modèles de base considérablement réduits. Cette initiative a le potentiel de révolutionner l’adoption de l’IA par les entreprises en s’attaquant à l’un des obstacles les plus importants : le coût.

Le coût élevé de l’adoption de l’IA

Selon les analystes Brad Sills et Carly Liu de BofA Global Research, le coût associé aux applications d’IA est le principal obstacle à leur mise en œuvre généralisée. Leur rapport, publié le mardi 28 janvier, suggère que les avancées en matière de réduction des coûts pourraient entraîner une nouvelle baisse des prix, ce qui se traduirait par une augmentation des taux d’adoption.

L’annonce de DeepSeek le lundi 27 janvier a provoqué une onde de choc dans l’industrie de l’IA, entraînant une baisse des actions de plusieurs entreprises d’IA. L’entreprise a révélé sa capacité à entraîner un modèle de base pour seulement 5,58 millions de dollars en utilisant 2 048 puces Nvidia H800. Ce chiffre contraste fortement avec les coûts estimés d’OpenAI et d’Anthropic, qui varient de 100 millions à un milliard de dollars et impliquent l’utilisation de milliers de puces d’IA de Nvidia.

Roy Benesh, CTO d’eSIMple, a souligné le potentiel transformateur de la réalisation de DeepSeek, déclarant qu’elle permet aux petites entreprises, aux développeurs individuels et même aux chercheurs de tirer parti de la puissance de l’IA sans encourir de coûts exorbitants. Cette accessibilité accrue peut favoriser le développement d’idées et de technologies innovantes, conduisant à une plus grande compétitivité dans le domaine. En conséquence, les clients peuvent bénéficier de nouvelles options, tandis que les entreprises d’IA établies sont susceptibles de baisser leurs prix et d’accélérer les progrès technologiques.

Les analystes de BofA ont fourni des exemples des coûts associés aux applications d’IA existantes. Microsoft 365 Copilot Chat facture entre 1 cent et 30 cents par requête, en fonction de la complexité de la demande. Salesforce Agentforce pour Service Cloud facture un tarif forfaitaire de 2 dollars par conversion.

Bien que BofA ait reconnu que le chiffre de 5,58 millions de dollars présenté par DeepSeek est quelque peu trompeur en raison de l’exclusion des coûts liés à la recherche, aux expériences, aux architectures, aux algorithmes et aux données, les analystes ont souligné l’importance des innovations de la startup pour démontrer la faisabilité de méthodes de formation moins coûteuses.

Pré-entraînement vs. Inférence : comprendre les coûts

Les modèles d’IA de base, tels que GPT-4o d’OpenAI et Gemini de Google, subissent un processus appelé pré-entraînement, au cours duquel ils sont exposés à de grandes quantités de données, telles que l’ensemble de l’internet, afin de développer des connaissances générales. Cependant, pour rendre ces modèles plus pertinents et utiles pour des entreprises et des secteurs spécifiques, les entreprises doivent les entraîner ou les affiner davantage en utilisant leurs propres données.

Une fois que le modèle d’IA a été affiné, il peut traiter les requêtes des utilisateurs et générer des réponses pertinentes. Cependant, le processus de sollicitation du modèle et d’obtention d’une réponse entraîne des coûts d’inférence, qui sont des frais associés à l’engagement du modèle avec de nouvelles données pour comprendre et analyser.

Il est important de noter que la plupart des entreprises ne supportent pas le coût de la formation des modèles de base. Cette responsabilité incombe aux développeurs de ces modèles, notamment OpenAI, Google, Meta, Amazon, Microsoft, Anthropic, Cohere, Hugging Face, Mistral AI, Stability AI, xAI, IBM, Nvidia, certains laboratoires de recherche et les géants chinois de la technologie comme Baidu et Alibaba.

Les entreprises supportent principalement les coûts d’inférence pour le traitement des charges de travail d’IA, qui constituent la majorité des dépenses liées à l’IA.

La connexion chinoise : les coûts d’inférence de DeepSeek et les préoccupations relatives à la vie privée

DeepSeek propose ses propres services d’inférence à des coûts nettement inférieurs à ceux des entreprises de la Silicon Valley. Cependant, il y a certaines considérations à garder à l’esprit lors de l’utilisation de ces services.

Selon la politique de confidentialité de DeepSeek, les informations des utilisateurs sont stockées sur des serveurs situés en Chine. L’entreprise déclare également qu’elle se conformera aux obligations légales et effectuera des tâches dans l’intérêt public ou pour protéger les intérêts vitaux de ses utilisateurs et d’autres personnes.

La loi chinoise sur le renseignement national, en particulier l’article 7, stipule que toutes les organisations et tous les citoyens doivent soutenir, aider et coopérer avec les efforts de renseignement national conformément à la loi et protéger les secrets du travail de renseignement national dont ils ont connaissance.

Kevin Surace, PDG d’Appvance, a soulevé des préoccupations concernant la vie privée, déclarant que la collecte de données auprès des utilisateurs est une pratique courante en Chine. Il a conseillé aux utilisateurs de faire preuve de prudence.

Dans une expérience menée par PYMNTS, il a été demandé au chatbot de DeepSeek d’expliquer comment les manifestations de la place Tiananmen en 1989 ont influencé la politique chinoise. Le chatbot a répondu : ‘Désolé, je ne sais pas encore comment aborder ce type de question.’

Tim Enneking, PDG de Presearch, a souligné que DeepSeek est une entreprise détenue à 100 % par des Chinois et située en Chine. Il a noté que l’incapacité du chatbot à fournir des informations sur la place Tiananmen ou sur de hauts responsables du gouvernement chinois suggère des limites à l’objectivité de la technologie. Bien qu’Enneking ait reconnu le potentiel passionnant de la technologie, il a exprimé des inquiétudes quant à son contrôle.

Cependant, Enneking a également souligné la nature open-source des modèles de DeepSeek, qui permet de procéder à des révisions pour supprimer les contrôles gouvernementaux et corporatifs. Il estime que la créativité technique de l’entreprise crée des opportunités pour les petites entreprises et les pays de participer et de réussir dans le paysage de l’IA générative.

Le potentiel de DeepSeek de réduire les coûts d’inférence pour tous

L’approche innovante de DeepSeek en matière de formation de modèles de base à moindre coût a des implications positives pour des entreprises comme Microsoft, qui peuvent continuer à réduire le coût de l’informatique de l’IA et à stimuler l’évolutivité. Selon Sills et Liu, des coûts informatiques plus faibles peuvent conduire à des marges améliorées sur les offres compatibles avec l’IA.

Dans une autre note de recherche, les analystes de BofA, Alkesh Shah, Andrew Moss et Brad Sills, ont suggéré que des coûts de calcul d’IA plus faibles pourraient permettre des services d’IA plus larges dans divers secteurs, des automobiles aux smartphones.

Bien qu’il soit peu probable que les développeurs de modèles de base comme OpenAI atteignent immédiatement des coûts de formation aussi bas que ceux de DeepSeek, les analystes estiment que les techniques innovantes de formation et de post-formation de DeepSeek seront adoptées par les développeurs de modèles frontaliers concurrents pour améliorer l’efficacité. Cependant, ils soulignent que les modèles actuels nécessiteront toujours des investissements importants car ils constituent la base des agents d’IA.

À long terme, les analystes prévoient une adoption accélérée de l’IA par les entreprises à mesure que les chatbots, les copilotes et les agents deviennent à la fois plus intelligents et moins chers, un phénomène connu sous le nom de paradoxe de Jevons.

Le PDG de Microsoft, Satya Nadella, a fait écho à ce sentiment sur X, déclarant que le paradoxe de Jevons est à l’œuvre à mesure que l’IA devient plus efficace et accessible. Il estime que cela entraînera une augmentation de l’utilisation de l’IA, la transformant en une marchandise dont nous ne pouvons pas nous lasser.

Un examen plus approfondi des modèles de base et de leur impact

Les modèles de base, la colonne vertébrale de l’IA moderne, révolutionnent la façon dont les entreprises fonctionnent et interagissent avec la technologie. Ces modèles, formés sur de vastes ensembles de données, possèdent la capacité d’effectuer un large éventail de tâches, du traitement du langage naturel à la reconnaissance d’images. Le développement et le déploiement de ces modèles impliquent toutefois une interaction complexe de facteurs, notamment les coûts de formation, les coûts d’inférence, la confidentialité des données et les considérations éthiques.

Comprendre les modèles de base

À la base, les modèles de base sont de grands réseaux neuronaux entraînés sur des ensembles de données massifs. Ce processus de formation leur permet d’apprendre les modèles et les relations au sein des données, ce qui leur permet d’effectuer diverses tâches avec une précision remarquable. Voici quelques exemples de modèles de base :

  • GPT-4o : Un puissant modèle de langage développé par OpenAI, capable de générer du texte de qualité humaine, de traduire des langues et de répondre à des questions de manière complète.
  • Gemini de Google : Un modèle d’IA multimodal qui peut traiter et comprendre différents types de données, notamment du texte, des images et de l’audio.

Ces modèles ne se limitent pas à des tâches spécifiques, mais peuvent être adaptés à un large éventail d’applications, ce qui en fait des outils polyvalents pour les entreprises.

Le rôle du pré-entraînement et de l’affinement

Le développement d’un modèle de base implique généralement deux étapes clés : le pré-entraînement et l’affinement.

  • Pré-entraînement : Au cours de cette étape, le modèle est entraîné sur un ensemble de données massif, tel que l’ensemble de l’internet, afin d’acquérir des connaissances générales et des compétences linguistiques. Ce processus dote le modèle de la capacité de comprendre et de générer du texte, de traduire des langues et d’effectuer d’autres tâches de base.
  • Affinement : Au cours de cette étape, le modèle pré-entraîné est entraîné davantage sur un ensemble de données plus petit et plus spécifique lié à une tâche ou à un secteur particulier. Ce processus permet au modèle d’adapter ses connaissances et ses compétences aux besoins spécifiques de l’application.

Par exemple, un modèle de langage pré-entraîné pourrait être affiné sur un ensemble de données d’interactions avec le service client pour créer un chatbot capable de répondre efficacement aux demandes des clients.

Le coût de la formation et de l’inférence

Les coûts associés aux modèles de base peuvent être divisés en deux catégories principales : les coûts de formation et les coûts d’inférence.

  • Coûts de formation : Ces coûts comprennent les ressources de calcul, les données et l’expertise nécessaires pour former le modèle de base. La formation d’un grand modèle de base peut être extrêmement coûteuse, nécessitant souvent des millions de dollars d’investissement.
  • Coûts d’inférence : Ces coûts comprennent les ressources de calcul nécessaires pour utiliser le modèle entraîné afin de faire des prédictions ou de générer des résultats. Les coûts d’inférence peuvent varier en fonction de la taille et de la complexité du modèle, de la quantité de données traitées et de l’infrastructure utilisée.

L’innovation de DeepSeek réside dans sa capacité à réduire considérablement les coûts de formation associés aux modèles de base, les rendant ainsi plus accessibles à un plus large éventail d’entreprises et d’organisations.

Aborder les préoccupations en matière de confidentialité et d’éthique

L’utilisation de modèles de base soulève d’importantes questions sur la confidentialité des données et les considérations éthiques. Les modèles de base sont entraînés sur des ensembles de données massifs, qui peuvent contenir des informations sensibles ou personnelles. Il est essentiel de veiller à ce que ces modèles soient utilisés de manière responsable et éthique, en respectant la vie privée des utilisateurs et en évitant les biais.

Voici quelques stratégies pour répondre à ces préoccupations :

  • Anonymisation des données : Suppression ou masquage des informations personnelles des données de formation afin de protéger la vie privée des utilisateurs.
  • Détection et atténuation des biais : Identification et traitement des biais dans les données de formation afin de garantir que le modèle ne perpétue pas de stéréotypes nuisibles ou de pratiques discriminatoires.
  • Transparence et responsabilité : Fournir des informations claires sur le fonctionnement du modèle et son utilisation, et établir des mécanismes de responsabilité en cas d’erreurs ou de conséquences imprévues.

À mesure que les modèles de base se généralisent, il est essentiel de répondre de manière proactive à ces préoccupations en matière de confidentialité et d’éthique afin de garantir qu’ils soient utilisés au profit de la société.

L’avenir des modèles de base

Les modèles de base évoluent rapidement et leur impact potentiel sur la société est immense. À l’avenir, nous pouvons nous attendre à voir :

  • Des modèles plus puissants et plus polyvalents : À mesure que les chercheurs continuent de développer de nouvelles architectures et techniques de formation, les modèles de base deviendront encore plus puissants et polyvalents, capables d’effectuer un plus large éventail de tâches avec une plus grande précision.
  • Une accessibilité accrue : À mesure que les coûts de formation diminuent et que les plateformes d’IA basées sur le cloud se généralisent, les modèles de base deviendront plus accessibles aux entreprises de toutes tailles.
  • De nouvelles applications et de nouveaux cas d’utilisation : Les modèles de base continueront d’être appliqués à de nouveaux cas d’utilisation innovants dans divers secteurs, de la santé à la finance en passant par l’éducation.

L’essor des modèles de base représente un changement de paradigme dans le domaine de l’intelligence artificielle. En comprenant leurs capacités, leurs coûts et leurs considérations éthiques, nous pouvons exploiter leur puissance pour créer un avenir meilleur.

La contribution de DeepSeek à la démocratisation de l’IA

La réalisation de DeepSeek, qui a permis de réduire considérablement le coût de la formation des modèles de base, marque un moment charnière dans la démocratisation de l’IA. En abaissant la barrière à l’entrée, DeepSeek permet à un plus large éventail d’organisations et d’individus de participer à la révolution de l’IA.

L’impact sur les petites entreprises

Les petites entreprises manquent souvent des ressources et de l’expertise nécessaires pour développer et déployer leurs propres modèles d’IA. Les modèles de base rentables de DeepSeek offrent à ces entreprises un accès à une technologie d’IA de pointe qui était auparavant hors de portée. Cela peut uniformiser les règles du jeu, permettant aux petites entreprises de concurrencer plus efficacement les grandes entreprises plus établies.

Par exemple, une petite entreprise de commerce électronique pourrait utiliser les modèles de DeepSeek pour personnaliser les recommandations de produits pour ses clients, améliorer son service client ou automatiser ses campagnes de marketing.

L’autonomisation des développeurs individuels

Les modèles de DeepSeek permettent également aux développeurs et aux chercheurs individuels d’explorer de nouvelles applications et innovations en matière d’IA. Grâce à l’accès à des modèles de base abordables, les développeurs peuvent expérimenter différentes idées, développer de nouveaux outils alimentés par l’IA et contribuer à l’avancement de la technologie de l’IA.

Cela peut entraîner une augmentation de l’innovation, car davantage de personnes ont la possibilité de participer au développement de l’IA.

Le potentiel de collaboration open-source

L’approche open-source de DeepSeek favorise davantage la collaboration et l’innovation dans la communauté de l’IA. En mettant ses modèles à la disposition du public, DeepSeek encourage les développeurs à contribuer à leur amélioration, à identifier et à corriger les bogues et à développer de nouvelles fonctionnalités.

Cette approche collaborative peut accélérer le développement de la technologie de l’IA et garantir qu’elle est utilisée au profit de tous.

L’accélération de l’adoption de l’IA

En réduisant le coût de l’IA, DeepSeek accélère l’adoption de l’IA dans divers secteurs. À mesure que l’IA devient plus abordable et accessible, davantage d’entreprises seront en mesure de l’intégrer dans leurs opérations, ce qui entraînera une augmentation de la productivité, de l’efficacité et de l’innovation.

Cela peut avoir un impact profond sur l’économie mondiale, en stimulant la croissance et en créant de nouvelles opportunités.

Un écosystème d’IA plus inclusif

Les efforts de DeepSeek pour démocratiser l’IA contribuent à un écosystème d’IA plus inclusif, où davantage de personnes ont la possibilité de participer au développement et à l’utilisation de l’IA. Cela peut contribuer à garantir que l’IA est utilisée d’une manière qui profite à tous les membres de la société, plutôt qu’à quelques privilégiés.

En permettant aux petites entreprises, aux développeurs individuels et aux chercheurs, DeepSeek favorise un paysage d’IA plus diversifié et innovant.