Hallucinations des modèles ChatGPT : un problème croissant
De nouvelles études révèlent un taux d'hallucinations plus élevé dans les modèles ChatGPT récents, soulevant des questions sur la fiabilité des grands modèles linguistiques (LLM).
De nouvelles études révèlent un taux d'hallucinations plus élevé dans les modèles ChatGPT récents, soulevant des questions sur la fiabilité des grands modèles linguistiques (LLM).
Le PDG de Baidu exprime des réserves sur le modèle d'IA DeepSeek, citant ses limitations en matière de formats multimédias, sa lenteur, ses coûts élevés et sa tendance à générer des informations inexactes, remettant en question sa fiabilité et soulevant des inquiétudes quant à la sécurité nationale.
OpenAI lance une version allégée de son outil de recherche pour ChatGPT, offrant des capacités complètes tout en étant plus efficace et abordable.
Malgré la domination de l'application ChatGPT, l'écosystème étendu de Google pourrait lui donner un avantage significatif à long terme dans le domaine de l'IA générative.
La récente habitude de ChatGPT d'utiliser le nom des utilisateurs suscite à la fois fascination et inquiétude. Cette personnalisation soulève des questions sur l'équilibre entre convivialité et violation de la vie privée dans la communication avec l'IA.
La panne de ChatGPT souligne l'importance d'alternatives IA comme Google Gemini, Anthropic Claude, Microsoft Copilot et Perplexity AI pour diverses utilisations.
La PIPC sud-coréenne enquête sur DeepSeek pour transfert de données personnelles sans consentement. L'IA et la protection de la vie privée sont en jeu.
La startup chinoise DeepSeek est examinée en Corée du Sud pour des transferts de données non autorisés vers la Chine et les États-Unis, soulevant des préoccupations en matière de confidentialité des données.
OpenAI lance une version 'légère' de son outil de recherche approfondie ChatGPT, alimentée par le modèle o4-mini, offrant des rapports rapides et accessibles aux utilisateurs Plus, Team, Pro et bientôt gratuits. Concurrence avec Google Gemini et Microsoft Copilot.
Anthropic explore les valeurs morales de Claude, son chatbot, révélant comment les modèles d'IA perçoivent et répondent aux valeurs humaines. L'étude analyse des conversations pour identifier les principes éthiques qui façonnent l'avenir des interactions avec l'IA.