Google I/O 2025: ¿Cuánto sabes?

Este año, la conferencia Google I/O trajo consigo una ola de anuncios emocionantes que prometen redefinir nuestra interacción con la tecnología. Desde avances en la inteligencia artificial generativa hasta mejoras en los modelos de lenguaje y nuevas herramientas para la creación de contenido, Google ha dejado claro que está comprometido con la innovación constante y la democratización del acceso a la tecnología. Para evaluar tu comprensión de estos emocionantes anuncios, te presentamos un cuestionario que abarca diversas áreas, desde la búsqueda hasta Gemini y la inteligencia artificial generativa.

Google I/O 2025 ha llegado a su fin, consolidándose como una de las ediciones más emocionantes en la historia del evento. Durante la conferencia de este año, los empleados de Google compartieron su enfoque para lanzar nuevos modelos de IA inteligente, productos de agentes y funciones personalizadas a una velocidad sin precedentes, con el objetivo de hacerlos útiles para todos. Se presentaron actualizaciones del modelo Gemini y la aplicación Gemini, los modos de IA en Search y la tecnología de IA generativa, entre otros. Este cuestionario te permitirá poner a prueba tus conocimientos sobre los principales anuncios de la I/O.

Comienza el cuestionario

  1. Verdadero o falso: Gemini 2.5 Pro será aún mejor gracias a la introducción de un modo de razonamiento mejorado llamado "Deep Think".

    • Respuesta correcta: Es cierto. Estamos mejorando Gemini 2.5 Pro mediante la introducción de Deep Think, un modo de razonamiento mejorado experimental para matemáticas y codificación altamente complejas. Lo estamos poniendo a disposición de evaluadores de confianza a través de la API de Gemini para obtener sus comentarios antes de un uso generalizado.
  2. Estamos comenzando a implementar los modos de IA (nuestra búsqueda con IA más potente) para todos en:

    • Estados Unidos

    • Reino Unido

    • Canadá

    • Australia

    • Respuesta correcta: Correcto, estamos implementando los modos de IA para todos en los Estados Unidos, sin necesidad de registrarse en Labs. Los modos de IA utilizan un razonamiento más avanzado y multimodal, y son capaces de explorar en mayor profundidad con preguntas de seguimiento y enlaces web útiles. En las próximas semanas, verás una nueva pestaña para los modos de IA en la barra de búsqueda en Search y en la aplicación de Google. A partir de esta semana, estamos incorporando una versión personalizada de Gemini 2.5 (nuestro modelo más inteligente) a Search en los Estados Unidos para los modos de IA y las visiones generales de IA.

  3. Veo 3 es nuestro modelo de generación de video de última generación más reciente que no solo mejora la calidad de Veo 2, sino que también genera por primera vez ¿qué?:

    • Video con audio

    • Video 8K

    • Video con física realista

    • Video de más de 10 minutos

    • Respuesta correcta: Suena bien: Veo 3 puede generar videos con audio, como el ruido del tráfico en una escena de calle urbana, el canto de los pájaros en un parque o incluso conversaciones entre personajes. En general, Veo 3 sobresale en indicaciones de texto e imagen, física realista y sincronización labial precisa. Veo 3 está disponible hoy para los suscriptores de Ultra en la aplicación Gemini y Flow en los Estados Unidos. También está disponible para usuarios empresariales en Vertex AI.

  4. ¿Cuál es el nombre de nuestro nuevo plan de suscripción de IA que tiene los límites de uso más altos y acceso a nuestros modelos más potentes y funciones avanzadas?:

    • Google AI Pro

    • Google AI Ultra

    • Google AI Premium

    • Google AI Max

    • Respuesta correcta: Eso es absolutamente correcto. Google AI Ultra, que proporciona acceso a nuestros modelos y funciones avanzadas más potentes, incluidos Gemini, Flow y Whisk. También obtienes acceso a nuestro prototipo de investigación de agentes, Project Mariner. Google AI Ultra comenzará a implementarse en los Estados Unidos por $249.99 al mes (oferta especial del 50% de descuento durante los primeros tres meses para los usuarios por primera vez) y pronto llegará a más países.

  5. ¿Qué modelo de Gemini actualizado es el que acabamos de poner a disposición de todos en la aplicación Gemini?:

    • Gemini 1.5 Pro

    • Gemini 2.0 Pro

    • Gemini 2.5 Pro

    • Gemini 3.0 Pro

    • Respuesta correcta: Correcto, recientemente comenzamos a implementar Gemini 1.5 Pro para todos en la aplicación Gemini. Es más rápido, más receptivo y viene con una ventana de contexto de 128K de forma gratuita.

  6. ¿Cuál es el nombre de nuestra nueva herramienta de creación de películas con IA, diseñada para los modelos más avanzados de Google (Veo, Imagen y Gemini)?:

    • Firefly

    • Runway

    • Flow

    • Premiere

    • Respuesta correcta: Dejemos que fluya. Flow está diseñado para creativos y ayuda a los narradores a explorar sus ideas sin restricciones y crear cortes y escenas cinematográficas para sus historias fusionando Veo, Imagen y Gemini juntos. Está disponible hoy para los suscriptores de Google AI Pro y Ultra en los Estados Unidos, y pronto llegará a más países.

  7. Verdadero o falso: ahora puedes obtener informes de Deep Research completos y personalizados que combinan datos públicos con tus propios archivos cargados.

    • Respuesta correcta: Sí, esto no es demasiado bueno para ser verdad: ahora que puedes cargar tus propios PDF, imágenes y archivos de Drive en Deep Research, obtendrás una comprensión holística. Esa comprensión puede cruzar tu conocimiento único con tendencias más amplias, todo en un solo lugar, ahorrándote tiempo y revelando conexiones que de otro modo podrías haber perdido.
  8. Con Search Live, podrás tener conversaciones interactivas con Search usando tu ____.

    • Teclado

    • Cámara

    • Micrófono

    • Ratón

    • Respuesta correcta: En vivo desde tu cámara, es… ¡Search Live! Estamos incorporando las capacidades en vivo de Project Astra a Search para que puedas usar tu cámara para discutir en tiempo real con Search sobre lo que estás viendo. Por ejemplo, si estás confundido con un proyecto y necesitas ayuda, simplemente toca el icono "en vivo" en AI Mode o Lens, apunta tu cámara y haz tu pregunta. Así como así, Search se convierte en un compañero de aprendizaje que puede verte.

  9. En promedio, ¿cuánto tiempo duran las conversaciones de las personas con Gemini Live en comparación con las conversaciones de Gemini basadas en texto?:

    • El doble

    • El triple

    • El quádruple

    • El quíntuple

    • Respuesta correcta: Choca esos cinco, tienes toda la razón. A la gente le encanta Gemini Live. De hecho, las conversaciones son en promedio cinco veces más largas que las conversaciones basadas en texto, ya que ofrece nuevas formas de obtener ayuda, ya sea para solucionar problemas de un aparato o para obtener recomendaciones de compras personalizadas.

  10. ¿Qué es el modo de agente?:

    • Una forma de reducir el consumo de energía en un dispositivo

    • Una nueva función de Gemini que puede administrar tareas complejas siguiendo tus instrucciones

    • Un sistema de comandos de voz para controlar dispositivos domésticos inteligentes

    • Un protocolo para sincronizar datos entre varios dispositivos

    • Respuesta correcta: No estás en modo vacaciones en tu mente: El modo de agente es un nombre pegadizo para una nueva capacidad experimental que llegará pronto al escritorio cuando actualices tu aplicación Gemini a un plan Ultra, donde simplemente indicas tu objetivo, y Gemini organiza de forma inteligente los pasos para lograr ese objetivo. El modo de agente combina capacidades avanzadas como la navegación web en vivo, la investigación profunda y la integración inteligente con tus aplicaciones de Google, de modo que puede administrar tareas complejas de varios pasos de principio a fin con una supervisión mínima.

  11. Si vas a Search Labs en los Estados Unidos, ¿qué puedes subir para probarte virtualmente miles de millones de artículos de ropa?:

    • Una selfie

    • Una foto de cuerpo entero

    • Una foto de una prenda

    • Una foto de una modelo

    • Respuesta correcta: ¡Eso es correcto! Con nuestro experimento "Probarse", los compradores en línea en los Estados Unidos ahora pueden probarse virtualmente miles de millones de artículos de ropa simplemente subiendo una foto de sí mismos. Está impulsado por un nuevo modelo de generación de imágenes personalizado que entiende el cuerpo humano, así como matices en la ropa, como la forma en que los diferentes materiales se doblan, estiran y caen sobre diferentes cuerpos.

  12. En las próximas semanas, haremos que Gemini Live sea aún más útil al conectarlo a algunas de tus aplicaciones favoritas de Google para que puedas actuar en una conversación. ¿Qué aplicaciones podrás conectar?:

    • Gmail, Docs y Sheets

    • Maps, Calendar, Tasks y Keep

    • Photos, Drive y Contacts

    • YouTube, Music y Podcasts

    • Respuesta correcta: Correcto: Gemini Live se integrará aún más en tu vida diaria, comenzando con Google Maps, Calendar, Tasks y Keep, y se agregarán más conexiones de aplicaciones más adelante. Siempre podrás administrar estas conexiones de aplicaciones y tu información en la configuración de la aplicación.

  13. Las visiones generales de IA ahora están disponibles en más de ____ países y en más de ____ idiomas.

    • 100 y 20

    • 150 y 30

    • 200 y 40

    • 250 y 50

    • Respuesta correcta: Tu puntería está muy bien afinada. Ahora, las visiones generales de IA están disponibles en más de 200 países y en más de 40 idiomas, con soporte adicional para árabe, chino, malayo, urdu y más.

  14. Nuestra nueva plataforma de comunicación de video, Google Beam, combina nuestros modelos de video de IA con ____ para transformar transmisiones de video 2D estándar en experiencias 3D realistas.

    • Tecnología de campos de radiación neuronal (NeRF)

    • Superposiciones de realidad aumentada (AR)

    • Proyecciones holográficas

    • Entornos de realidad virtual (VR)

    • Respuesta correcta: Correcto, Google Beam combina nuestros modelos de video de IA con campos de radiación neuronal para transformar transmisiones de video 2D estándar en experiencias 3D realistas, lo que facilita que las personas se conecten de una manera natural y atractiva como nunca antes.

  15. En la demostración de I/O, la gerente de productos de XR, Nishtha Bhatia, usó Gemini en los anteojos Android XR para recordar detalles sobre el café que había tomado en el backstage. ¿Cuál fue ese detalle?:

    • El nombre de la cafetería

    • El precio del café

    • El tipo de leche utilizada en el café

    • El tamaño de la taza de café

    • Respuesta correcta: Estás listo para tomar un café con leche porque eso es correcto. Nishtha usó Gemini en sus anteojos Android XR para recordar el nombre de la cafetería. También usó sus anteojos para programar tomar un café allí más tarde ese día, tomar fotos de los asistentes a I/O y traducir conversaciones en hindi y farsi en tiempo real.