Google I/O 2025 : Évaluez vos connaissances !

Google I/O 2025 est terminé avec succès, et c’est l’édition la plus excitante à ce jour. Lors de la conférence de cette année, les employés de Google ont partagé comment ils publient de nouveaux modèles d’IA intelligents, des produits d’agents et des fonctionnalités personnalisées à une vitesse sans précédent, les rendant ainsi utiles à tous. Nous avons publié des mises à jour des modèles Gemini et de l’application Gemini, des modes d’IA dans la recherche, de la technologie d’IA générative, etc. Testez vos connaissances sur nos plus grandes annonces I/O avec ce quiz.

Début du quiz

  1. Vrai ou faux : nous allons rendre Gemini 2.5 Pro encore meilleur en introduisant un mode de raisonnement amélioré appelé « Deep Think ».

    • Bonne réponse : C’est exact.  Nous perfectionnons Gemini 2.5 Pro en introduisant Deep Think, un mode de raisonnement amélioré expérimental pour les mathématiques et le codage très complexes.  Nous le mettons à la disposition de testeurs de confiance via l’API Gemini afin de recueillir leurs commentaires avant une mise à disposition à grande échelle.
  2. Nous commençons à déployer les modes d’IA (notre expérience de recherche basée sur l’IA la plus puissante) pour tout le monde dans les régions suivantes :

    • États-Unis

    • Royaume-Uni

    • Canada

    • Australie

    • Bonne réponse : En effet, nous déployons les modes d’IA pour tout le monde aux États-Unis, sans inscription à Labs.  Les modes d’IA utilisent un raisonnement avancé et la multimodalité, et sont capables d’une exploration plus approfondie avec des questions de suivi et des liens Web utiles.  Dans les semaines à venir, vous verrez un nouvel onglet pour les modes d’IA dans la recherche et dans la barre de recherche de l’application Google.  Dès cette semaine, nous intégrerons une version personnalisée de Gemini 2.5 (notre modèle le plus intelligent) à la recherche aux États-Unis pour les modes d’IA et les aperçus de l’IA.

  3. Veo 3 est notre dernier modèle de génération de vidéos de pointe qui non seulement améliore la qualité de Veo 2, mais génère pour la première fois quoi ?

    • Vidéos avec audio

    • Vidéos 8K

    • Vidéos avec une physique réaliste

    • Vidéos de plus de 10 minutes

    • Bonne réponse : Ça sonne bien : Veo 3 peut générer des vidéos avec audio, comme le bruit de la circulation dans une scène de rue urbaine, le chant des oiseaux dans un parc ou même un dialogue entre des personnages.  Dans l’ensemble, Veo 3 excelle dans les invites textuelles et visuelles, la physique réaliste et la synchronisation labiale précise.  Veo 3 est disponible dès aujourd’hui dans l’application Gemini et Flow aux États-Unis pour les abonnés Ultra.  Il est également disponible pour les entreprises sur Vertex AI.

  4. Quel est le nom de notre nouveau forfait d’abonnement à l’IA ? Il offre les limites d’utilisation les plus élevées et un accès à nos modèles et fonctionnalités premium les plus performants.

    • Google AI Pro

    • Google AI Ultra

    • Google AI Premium

    • Google AI Max

    • Bonne réponse : C’est absolument exact.  Google AI Ultra, qui offre un accès à nos modèles et fonctionnalités avancés les plus performants, notamment Gemini, Flow et Whisk.  Vous bénéficiez également d’un accès à notre prototype de recherche d’agent, Project Mariner.  Google AI Ultra sera lancé aux États-Unis au prix de 249,99 $ par mois (avec une offre spéciale de 50 % de réduction pour les trois premiers mois pour les nouveaux utilisateurs), d’autres pays étant à venir.

  5. Quel modèle Gemini mis à jour venons-nous de mettre à la disposition de tous dans l’application Gemini ?

    • Gemini 1.5 Pro

    • Gemini 2.0 Pro

    • Gemini 2.5 Pro

    • Gemini 3.0 Pro

    • Bonne réponse : En effet, nous avons récemment commencé à déployer Gemini 1.5 Pro pour tous dans l’application Gemini.  Il est plus rapide, plus réactif et offre une fenêtre contextuelle de 128 K gratuitement.

  6. Quel est le nom de notre nouvel outil de réalisation de films basé sur l’IA ? Il est conçu pour les modèles les plus avancés de Google (Veo, Imagen et Gemini).

    • Firefly

    • Runway

    • Flow

    • Premiere

    • Bonne réponse : Laissons les choses suivre leur cours.  Flow est conçu pour les créatifs et aide les conteurs à explorer leurs idées sans limites, et à créer des clips vidéo et des scènes pour leurs histoires en combinant Veo, Imagen et Gemini.  Il est disponible dès aujourd’hui pour les abonnés aux forfaits Google AI Pro et Ultra aux États-Unis, et d’autres pays sont à venir.

  7. Vrai ou faux : vous pouvez désormais obtenir un rapport de recherche approfondie complet et personnalisé qui combine des données publiques avec vos propres fichiers téléchargés.

    • Bonne réponse : Oui, ce n’est pas trop beau pour être vrai : puisque vous pouvez télécharger vos propres PDF, images et fichiers depuis Drive vers Deep Research, vous obtiendrez une compréhension globale.  Cette compréhension peut croiser vos connaissances uniques avec les tendances plus larges, le tout en un seul endroit, ce qui vous fait gagner du temps et révèle des connexions que vous auriez pu manquer.
  8. Grâce à Recherche en direct, vous pourrez utiliser votre ____ pour avoir une conversation interactive avec la recherche.

    • Clavier

    • Caméra

    • Microphone

    • Souris

    • Bonne réponse : En direct depuis votre caméra, c’est… Recherche en direct !  Nous intégrons la fonctionnalité en direct de Project Astra à la recherche afin que vous puissiez utiliser votre caméra et discuter en direct avec la recherche de ce que vous voyez.  Par exemple, si vous êtes perplexe au sujet d’un projet et que vous avez besoin d’aide, appuyez simplement sur l’icône « En direct » dans Modes d’IA ou Lens, pointez votre caméra et posez votre question.  La recherche devient ainsi un partenaire d’apprentissage qui vous voit.

  9. En moyenne, les personnes ont-elles des conversations avec Gemini Live plus longues que les conversations Gemini par texte ?

    • 2 fois

    • 3 fois

    • 4 fois

    • 5 fois

    • Bonne réponse : Bravo, c’est exact !  Les gens adorent Gemini Live.  En fait, les conversations sont en moyenne cinq fois plus longues que les conversations basées sur du texte, car elles offrent de nouvelles façons d’obtenir de l’aide, qu’il s’agisse de dépanner un appareil ou d’obtenir des recommandations d’achat personnalisées.

  10. Qu’est-ce qu’un mode Agent ?

    • Une façon de réduire la consommation d’énergie d’un appareil

    • Une nouvelle fonctionnalité Gemini qui peut gérer des tâches complexes à votre demande

    • Un système de commandes vocales pour contrôler les appareils domotiques intelligents

    • Un protocole pour synchroniser les données sur plusieurs appareils

    • Bonne réponse : Votre cerveau n’est pas en mode vacances : Le mode Agent est un nom accrocheur pour une nouvelle fonctionnalité expérimentale qui arrivera bientôt sur les ordinateurs de bureau lorsque vous mettrez à niveau l’application Gemini vers le forfait Ultra, où vous pourrez simplement énoncer votre objectif, et Gemini planifiera intelligemment les étapes nécessaires pour l’atteindre.  Le mode Agent combine des fonctionnalités avancées telles que la navigation Web en direct, la recherche approfondie et des intégrations intelligentes avec vos applications Google, ce qui lui permet de gérer des tâches complexes en plusieurs étapes du début à la fin avec une supervision minimale.

  11. Si vous vous rendez dans Search Labs aux États-Unis, que pouvez-vous importer pour essayer virtuellement des milliards d’articles vestimentaires ?

    • Une photo de selfie

    • Une photo de corps entier

    • Une photo d’un vêtement

    • Une photo d’un modèle

    • Bonne réponse : C’est exact !  Grâce à notre expérience « Essayez-le », les acheteurs en ligne aux États-Unis peuvent désormais essayer virtuellement des milliards d’articles vestimentaires simplement en important une photo d’eux-mêmes.  Elle est alimentée par un nouveau modèle de génération d’images personnalisé qui comprend le corps humain ainsi que les nuances des vêtements, comme la façon dont différents matériaux se plient, s’étirent et tombent sur différents corps.

  12. Dans les semaines à venir, nous allons rendre Gemini Live encore plus personnalisé en connectant certaines de vos applications Google préférées afin que vous puissiez agir pendant les conversations. Quelles applications pourrez-vous connecter ?

    • Gmail, Docs et Sheets

    • Maps, Agenda, Tasks et Keep

    • Photos, Drive et Contacts

    • YouTube, Music et Podcasts

    • Bonne réponse : En effet : Gemini Live s’intégrera plus profondément à votre vie quotidienne, en commençant par Google Maps, Agenda, Tasks et Keep, et d’autres connexions d’applications suivront.  Vous pouvez gérer ces connexions d’applications et vos informations à tout moment dans les paramètres de l’application.

  13. Les aperçus de l’IA sont désormais disponibles dans plus de ____ pays et plus de ____ langues.

    • 100 et 20

    • 150 et 30

    • 200 et 40

    • 250 et 50

    • Bonne réponse : Votre objectif était d’une précision incroyable.  Les aperçus de l’IA sont désormais disponibles dans plus de 200 pays et plus de 40 langues, avec une prise en charge accrue de l’arabe, du chinois, du malais, de l’ourdou, etc.

  14. Notre nouvelle plateforme de communication vidéo, Google Beam, associe nos modèles vidéo d’IA et ____ pour transformer les flux vidéo 2D standard en expériences 3D réalistes.

    • Technologie NeRF (champs de radiance neuronaux)

    • Superpositions de réalité augmentée (RA)

    • Projections holographiques

    • Environnements de réalité virtuelle (RV)

    • Bonne réponse : C’est exact, Google Beam associe nos modèles vidéo d’IA aux champs de radiance neuronaux pour transformer les flux vidéo 2D standard en expériences 3D réalistes, ce qui permet aux gens de se connecter plus facilement que jamais de manière naturelle et captivante.

  15. Dans la démonstration I/O, Nishtha Bhatia, chef de produit XR, a utilisé Gemini sur les lunettes Android XR pour rappeler les détails de son café qu’elle avait pris en coulisses. Quel était ce détail ?

    • Le nom du café

    • Le prix du café

    • Le type de lait utilisé dans le café

    • La taille de la tasse de café

    • Bonne réponse : Vous êtes sur le point de prendre un latte, car c’est exact.  Nishtha a utilisé Gemini sur ses lunettes Android XR pour se souvenir du nom du café.  Elle a également utilisé ses lunettes pour programmer un café plus tard dans la journée dans ce même café, prendre des photos des participants à la conférence I/O et traduire des conversations en hindi et en persan en temps réel.

Analyse approfondie des annonces de Google I/O 2025

Google continue de repousser les limites de l’intelligence artificielle et de ses applications, comme le démontrent les annonces faites lors de la conférence Google I/O 2025. Les mises à jour de Gemini, les avancées dans la recherche basée sur l’IA et les nouveaux outils créatifs témoignent de l’engagement de Google à rendre l’IA plus accessible et plus utile pour tous.

Amélioration de Gemini et de Ses Capacités

Gemini, le modèle d’IA phare de Google, a reçu plusieurs améliorations significatives. L’introduction du mode Deep Think dans Gemini 2.5 Pro promet de révolutionner la façon dont l’IA aborde les problèmes complexes en mathématiques et en codage. Cette amélioration s’inscrit dans la stratégie de Google visant à affiner les capacités de raisonnement de Gemini, le rendant plus performant et plus fiable pour les tâches exigeantes.

Le déploiement de Gemini 1.5 Pro à tous les utilisateurs de l’application Gemini est une autre étape importante. Avec une fenêtre contextuelle de 128K disponible gratuitement, Gemini devient plus accessible et permet aux utilisateurs de traiter de plus grandes quantités d’informations. Cette mise à niveau améliore la vitesse et la réactivité de l’IA, la rendant plus agréable et plus pratique pour une utilisation quotidienne.

Enfin, l’annonce de Google AI Ultra, un nouveau forfait d’abonnement, démontre l’engagement de Google à fournir un accès premium à ses modèles et fonctionnalités d’IA les plus avancés. Google AI Ultra offre non seulement des limites d’utilisation plus élevées, mais également un accès à des outils exclusifs tels que Project Mariner, un prototype de recherche d’agent.

Recherche Alimentée Par L’IA : Une Expérience Plus Intuitive

Les modes d’IA, le moteur de recherche basé sur l’IA de Google, ont été déployés pour tous les utilisateurs américains. Cette initiative marque une étape clé dans l’évolution des moteurs de recherche, transformant la façon dont les gens interagissent avec l’information en ligne. Les modes d’IA utilisent un raisonnementavancé et des capacités multimodales pour offrir une compréhension plus approfondie des requêtes des utilisateurs, fournissant des liens Web utiles et des options de suivi pour une exploration plus approfondie.

L’intégration de Gemini 2.5, le modèle d’IA le plus intelligent de Google, dans la recherche aux États-Unis pour les modes d’IA et les aperçus de l’IA est une amélioration majeure. Cette intégration permettra à la recherche d’offrir des réponses plus pertinentes et personnalisées, améliorant ainsi l’expérience utilisateur globale.

Search Live, une nouvelle fonctionnalité passionnante, permet aux utilisateurs d’interagir avec la recherche en utilisant la caméra de leur smartphone. Grâce à la technologie de Project Astra, les utilisateurs peuvent simplement pointer leur appareil photo vers un objet ou une scène et poser des questions à la recherche. Cette approche innovante transforme la recherche en un partenaire d’apprentissage visuel, offrant une nouvelle façon d’explorer le monde qui nous entoure.

Outils de Créativité Basés Sur L’IA

Google a dévoilé Flow, un nouvel outil de réalisation de films d’IA conçu pour donner aux créatifs la possibilité d’explorer leurs idées sans limites. Flow combine les capacités de Veo, Imagen et Gemini pour créer des clips vidéo et des scènes pour les histoires, offrant aux conteurs un ensemble d’outils puissants pour donner vie à leur vision.

Veo 3, le dernier modèle de génération vidéo de Google, franchit une nouvelle étape en générant pour la première fois des vidéos avec audio. Cette avancée permet de créer des vidéos plus immersives et réalistes, avec des effets sonores tels que le bruit de la circulation ou le chant des oiseaux. Veo 3 excelle également dans les invites textuelles et visuelles, la physique réaliste et la synchronisation labiale précise, ce qui en fait un atout précieux pour les créateurs de contenu.

Google Beam, une nouvelle plateforme de communication vidéo, transforme les flux vidéo 2D standard en expériences 3D immersives grâce à la combinaison de modèles vidéo d’IA et de la technologie NeRF (Neural Radiance Fields). Cette technologie permet aux gens de se connecter de manière plus naturelle et captivante, ouvrant de nouvelles possibilités pour la communication vidéo.

Personnalisation et Intégration Plus Poussées

Google met l’accent sur la personnalisation et l’intégration avec d’autres applications Google. Gemini Live, une nouvelle fonctionnalité qui permet aux utilisateurs d’avoir des conversations plus naturelles et interactives avec l’IA, sera encore plus personnalisée en connectant certaines des applications Google préférées des utilisateurs.

Dans les semaines à venir, Gemini Live s’intégrera à Google Maps, Agenda, Tasks et Keep, permettant aux utilisateurs d’agir directement dans leurs conversations. Par exemple, les utilisateurs pourront demander à Gemini Live de créer une tâche dans Google Tasks ou d’ajouter un événement à leur calendrier.

L’expérience « Essayez-le » disponible dans Search Labs aux États-Unis permet aux acheteurs en ligne d’essayer virtuellement des milliards d’articles vestimentaires en téléchargeant une photo d’eux-mêmes. Cette fonctionnalité utilise un nouveau modèle de génération d’images personnalisé qui comprend le corps humain et les nuances des vêtements, offrant une expérience d’achat en ligne plus réaliste et personnalisée.

Enfin, la possibilité d’uploader des fichiers PDF, des images et des fichiers depuis Google Drive dans Deep Research permet aux utilisateurs d’obtenir une compréhension plus complète et personnalisée des informations. Cette fonctionnalité permet de croiser les connaissances uniques des utilisateurs avec les tendances plus larges, ce qui permet de gagner du temps et de découvrir des connexions que les utilisateurs auraient pu manquer.

Vers Un Avenir Axé Sur L’IA

Les annonces de Google I/O 2025 témoignent de l’engagement de l’entreprise à repousser les limites de l’IA et à la rendre plus accessible et plus utile pour tous. Les améliorations de Gemini, les avancées dans la recherche basée sur l’IA, les nouveaux outils de créativité et les fonctionnalités de personnalisation et d’intégration témoignent tous de la vision d’un avenir où l’IA joue un rôle de plus en plus important dans nos vies.

Google continue de se concentrer sur le développement d’une IA responsable et éthique, et il est clair que l’entreprise s’engage à faire en sorte que l’IA soit une force positive dans le monde. Avec les progrès constants réalisés par Google dans le domaine de l’IA, il est passionnant de voir ce que l’avenir nous réserve.