Google I/O 2025: Ihr Wissenstest!

Dieses Jahr gab es auf der Google I/O Konferenz einige aufregende Ankündigungen. Testen Sie Ihr Wissen über den Inhalt der Konferenz mit den folgenden Frage-und-Antwort-Fragen, die Bereiche wie Suche, Gemini und generative KI abdecken.

Google I/O 2025 ist erfolgreich zu Ende gegangen und war die bisher aufregendste Veranstaltung. Auf der diesjährigen Konferenz teilten die Mitarbeiter von Google mit, wie sie mit noch nie dagewesener Geschwindigkeit neue intelligente KI-Modelle, Agentenprodukte und personalisierte Funktionen veröffentlichten, um sie für jeden nützlich zu machen. Wir haben Updates für das Gemini-Modell und die Gemini-Anwendung, KI-Modi in der Suche, generative KI-Technologie und mehr veröffentlicht. Testen Sie mit diesem Quiz Ihr Wissen über unsere größten I/O-Ankündigungen.

Quizstart

  1. Wahr oder Falsch: Gemini 2.5 Pro wird durch die Einführung eines verbesserten Denkmodus namens “Deep Think” noch besser.

    • Richtige Antwort: Das ist richtig. Wir verbessern Gemini 2.5 Pro durch die Einführung von Deep Think, einem experimentellen, verbesserten Denkmodus für hochkomplexe Mathematik und Codierung. Wir stellen es vertrauenswürdigen Testern über die Gemini API zur Verfügung, um vor einer breiten Einführung Feedback zu erhalten.
  2. Wir beginnen mit der Einführung des KI-Modus (unserer leistungsstärksten KI-gestützten Suche) für alle in folgenden Regionen:

    • USA

    • Großbritannien

    • Kanada

    • Australien

    • Richtige Antwort: Genau, wir führen den KI-Modus für alle in den USA ein, ohne dass eine Registrierung bei Labs erforderlich ist. Der KI-Modus verwendet erweiterte Argumentation und Multimodalität und ist in der Lage, durch Anschlussfragen und hilfreiche Weblinks tiefer zu gehen. In den nächsten Wochen sehen Sie in der Suchleiste der Suche und der Google App einen neuen Tab für den KI-Modus. Ab dieser Woche werden wir eine benutzerdefinierte Version von Gemini 2.5 (unserem intelligentesten Modell) in die Suche in den USA für den KI-Modus und die KI-Übersicht integrieren.

  3. Veo 3 ist unser neuestes, hochmodernes Videogenerierungsmodell, das nicht nur die Qualität von Veo 2 verbessert, sondern zum ersten Mal was generiert?

    • Videos mit Audio

    • 8K-Videos

    • Videos mit realistischer Physik

    • Videos, die länger als 10 Minuten dauern

    • Richtige Antwort: Klingt gut: Veo 3 kann Videos mit Audio generieren, z. B. Verkehrsgeräusche in einer Stadtstraße, Vogelgezwitscher in einem Park oder sogar Dialoge zwischen Charakteren. Insgesamt zeichnet sich Veo 3 durch Text- und Bildaufforderungen, realistische Physik und präzise Lippensynchronisation aus. Veo 3 ist ab heute in den USA in der Gemini-App und in Flow für Ultra-Abonnenten verfügbar. Es ist auch für Unternehmenskunden auf Vertex AI verfügbar.

  4. Wie lautet der Name unseres neuen KI-Abonnementplans? Dieser Plan hat die höchsten Nutzungslimits und bietet Zugriff auf unsere leistungsstärksten Modelle und erweiterten Funktionen.

    • Google AI Pro

    • Google AI Ultra

    • Google AI Premium

    • Google AI Max

    • Richtige Antwort: Das ist absolut richtig. Google AI Ultra, das Zugriff auf unsere leistungsstärksten Modelle und erweiterten Funktionen bietet, darunter Gemini, Flow und Whisk. Sie erhalten auch Zugriff auf unseren Agenten-Forschungs-Prototyp Project Mariner. Google AI Ultra wird in den USA zum Preis von 249,99 US-Dollar pro Monat eingeführt (mit einem Sonderrabatt von 50 % für die ersten drei Monate für Erstabonnenten) und wird in Kürze in weiteren Ländern verfügbar sein.

  5. Welches aktualisierte Gemini-Modell haben wir gerade für alle in der Gemini-App verfügbar gemacht?

    • Gemini 1.5 Pro

    • Gemini 2.0 Pro

    • Gemini 2.5 Pro

    • Gemini 3.0 Pro

    • Richtige Antwort: Genau, wir haben kürzlich mit der Einführung von Gemini 1.5 Pro für alle in der Gemini-App begonnen. Es ist schneller, reaktionsschneller und bietet ein 128K-Kontextfenster kostenlos.

  6. Wie lautet der Name unseres neuen KI-Filmerstellungstools? Es wurde speziell für die fortschrittlichsten Modelle von Google (Veo, Imagen und Gemini) entwickelt.

    • Firefly

    • Runway

    • Flow

    • Premiere

    • Richtige Antwort: Lassen Sie es uns laufen lassen. Flow wurde für Kreative entwickelt und kann Storytellern helfen, ihre Ideen uneingeschränkt zu erkunden und Filmclips und Szenen für ihre Geschichten zu erstellen, indem es Veo, Imagen und Gemini kombiniert. Es ist ab heute für Abonnenten der Google AI Pro- und Ultra-Pläne in den USA verfügbar, weitere Länder folgen in Kürze.

  7. Wahr oder Falsch: Sie können jetzt einen vollständigen, benutzerdefinierten Deep Research-Bericht erhalten, der öffentliche Daten mit Ihren eigenen hochgeladenen Dateien kombiniert.

    • Richtige Antwort: Ja, das ist nicht zu schön, um wahr zu sein: Da Sie jetzt Ihre eigenen PDFs, Bilder und Dateien von Google Drive in Deep Research hochladen können, erhalten Sie ein umfassendes Verständnis. Dieses Verständnis kann Ihr eigenes Wissen mit breiteren Trends verknüpfen, und zwar alles an einem Ort, wodurch Sie Zeit sparen und Verbindungen aufdecken, die Sie möglicherweise übersehen haben.
  8. Mit Search Live können Sie mit Ihrer ____ einen Dialog mit Search führen.

    • Tastatur

    • Kamera

    • Mikrofon

    • Maus

    • Richtige Antwort: Live von Ihrer Kamera, das ist… Search Live! Wir führen die Live-Funktionalität von Project Astra in die Suche ein, sodass Sie mit Ihrer Kamera live mit der Suche über das diskutieren können, was Sie sehen. Wenn Sie beispielsweise bei einem Projekt nicht weiterkommen und Hilfe benötigen, klicken Sie einfach auf das Symbol “Live” im KI-Modus oder in Lens, richten Sie Ihre Kamera und stellen Sie Ihre Frage. So wird die Suche zu einem Lernpartner, der Sie sehen kann.

  9. Wie viel länger dauern Gespräche mit Gemini Live im Durchschnitt als textbasierte Gemini-Gespräche?

    • Doppelt so lang

    • Dreimal so lang

    • Viermal so lang

    • Fünfmal so lang

    • Richtige Antwort: High Five, das ist richtig! Die Leute lieben Gemini Live. Tatsächlich dauern die Gespräche im Durchschnitt fünfmal so lange wie textbasierte Unterhaltungen, da es neue Möglichkeiten bietet, Hilfe zu erhalten, sei es bei der Fehlersuche bei einem Gerät oder beim Erhalt personalisierter Kaufempfehlungen.

  10. Was ist der Agentenmodus?

    • Eine Möglichkeit, den Stromverbrauch von Geräten zu senken

    • Eine neue Gemini-Funktion, die komplexe Aufgaben mithilfe Ihrer Anweisungen verwaltet

    • Ein Sprachbefehlssystem zur Steuerung von Smart-Home-Geräten

    • Ein Protokoll zum Synchronisieren von Daten zwischen mehreren Geräten

    • Richtige Antwort: Ihr Gehirn ist nicht im Urlaubsmodus: Der Agentenmodus ist ein einprägsamer Name und verweist auf eine neue experimentelle Funktion, die bald auf Ihrem Desktop verfügbar sein wird, wenn Sie Ihre Gemini-App auf den Ultra-Plan upgraden. Sie müssen lediglich Ihr Ziel angeben, und Gemini arrangiert auf intelligente Weise die erforderlichen Schritte zur Erreichung dieses Ziels. Der Agentenmodus kombiniert erweiterte Funktionen wie Live-Webbrowsing, eingehende Recherche und intelligente Integrationen mit Ihren Google-Anwendungen, sodass er komplexe, mehrschrittige Aufgaben von Anfang bis Ende mit minimaler Überwachung verwalten kann.

  11. Was können Sie hochladen, wenn Sie in den USA die Search Labs besuchen, um Milliarden von Kleidungsstücken virtuell anzuprobieren?

    • Ein Selfie

    • Ein Ganzkörperfoto

    • Ein Foto eines Kleidungsstücks

    • Ein Foto eines Models

    • Richtige Antwort: Genau! Mit unserem “Anprobieren”-Experiment können Online-Shopper in den USA jetzt Milliarden von Kleidungsstücken anprobieren, indem sie einfach ein Foto von sich selbst hochladen. Es basiert auf einem neuen benutzerdefinierten Modell zur Bildgenerierung, das den menschlichen Körper versteht und die Nuancen der Kleidung, z. B. wie verschiedene Materialien sich an verschiedenen Körpern falten, dehnen und drapieren.

  12. In den nächsten Wochen werden wir Gemini Live noch persönlicher gestalten, indem wir einige Ihrer Lieblings-Google-Apps verbinden, damit Sie in Gesprächen Maßnahmen ergreifen können. Welche Apps können Sie verbinden?

    • Gmail, Docs und Tabellen

    • Maps, Kalender, Aufgaben und Keep

    • Fotos, Google Drive und Kontakte

    • YouTube, Music und Podcasts

    • Richtige Antwort: Genau: Gemini Live wird tiefer in Ihren Alltag integriert, beginnend mit Google Maps, Kalender, Aufgaben und Keep, und weitere App-Verbindungen werden später hinzugefügt. Sie können diese App-Verbindungen und Ihre Informationen jederzeit in den Einstellungen der App verwalten.

  13. KI-Übersichten sind jetzt in über ____ Ländern und in über ____ Sprachen verfügbar.

    • 100 und 20

    • 150 und 30

    • 200 und 40

    • 250 und 50

    • Richtige Antwort: Sie haben das Ziel genau im Visier. KI-Übersichten sind jetzt in über 200 Ländern und in über 40 Sprachen verfügbar, mit zusätzlicher Unterstützung für Arabisch, Chinesisch, Malaiisch, Urdu und mehr.

  14. Unsere neue Videokommunikationsplattform Google Beam kombiniert unsere KI-Videomodelle mit ____, um standardmäßige 2D-Videostreams in immersive 3D-Erlebnisse zu verwandeln.

    • Neuronale Strahlungsfelder (NeRF)-Technologie

    • Augmented Reality (AR)-Overlays

    • Holographische Projektionen

    • Virtual Reality (VR)-Umgebungen

    • Richtige Antwort: Genau, Google Beam kombiniert unsere KI-Videomodelle mit neuronalen Strahlungsfeldern, um standardmäßige 2D-Videostreams in immersive 3D-Erlebnisse zu verwandeln, wodurch es einfacher als je zuvor ist, auf natürliche und ansprechende Weise in Kontakt zu treten.

  15. In der I/O-Demo verwendete die XR-Produktmanagerin Nishtha Bhatia Gemini auf ihrer Android XR-Brille, um sich an Details eines Kaffees zu erinnern, den sie hinter der Bühne getrunken hatte. Welches Detail war das?

    • Der Name des Cafés

    • Der Preis des Kaffees

    • Die Art der Milch, die im Kaffee verwendet wurde

    • Die Größe des Kaffeebechers

    • Richtige Antwort: Da wollen Sie sich einen Latte holen, denn das ist richtig. Nishtha benutzte Gemini auf ihrer Android XR-Brille, um sich an den Namen des Cafés zu erinnern. Sie benutzte ihre Brille auch, um ein Treffen für einen Kaffee in diesem Café später am Tag zu vereinbaren, um Fotos von I/O-Besuchern zu machen und um Gespräche in Hindi und Farsi in Echtzeit zu übersetzen.