Google I/O 2025: 最新发布知多少?

Google I/O 2025已经圆满落幕,这是有史以来最令人激动的一届。在今年的大会上,谷歌员工分享了他们如何以前所未有的速度发布新的智能AI模型、代理产品和个性化功能,从而使它们对每个人都有用。我们发布了 Gemini 模型和 Gemini 应用程序、搜索中的 AI 模式、生成式 AI 技术等的更新。通过这个测验来测试您对我们最大的 I/O 公告的了解程度。

测验开始

  1. 判断题:通过引入名为“Deep Think”的增强推理模式,我们将使 Gemini 2.5 Pro 变得更好。

    • 正确答案: 这是正确的。 我们正在通过引入 Deep Think 来改进 Gemini 2.5 Pro,这是一种用于高度复杂的数学和编码的实验性增强推理模式。 我们正在通过 Gemini API 向值得信赖的测试人员提供它,以在广泛使用之前获得他们的反馈。
  2. 我们开始向以下地区的每个人推出 AI 模式(我们最强大的 AI 搜索)

    • 美国

    • 英国

    • 加拿大

    • 澳大利亚

    • 正确答案: 没错,我们正在向美国的每个人推出 AI 模式,无需注册 Labs。 AI 模式使用更高级的推理和多模态,并且能够通过后续问题和有用的网络链接进行更深入的探索。 在接下来的几周内,您会在搜索和 Google 应用程序的搜索栏中看到一个用于 AI 模式的新标签。 从本周开始,我们将把 Gemini 2.5 的自定义版本(我们最智能的模型)引入到美国的搜索中,用于 AI 模式和 AI 概述。

  3. Veo 3 是我们最新的最先进的视频生成模型,它不仅提高了 Veo 2 的质量,而且首次生成了什么?

    • 具有音频的视频

    • 8K 视频

    • 具有逼真物理效果的视频

    • 超过 10 分钟的视频

    • 正确答案: 听起来不错:Veo 3 可以生成带有音频的视频,例如城市街道场景中的交通噪音、公园里鸟儿的歌声,甚至是角色之间的对话。 总的来说,Veo 3 在文本和图像提示、真实物理效果和准确的唇部同步方面表现出色。 Veo 3 今天在美国的 Gemini 应用程序和 Flow 中面向 Ultra 订阅者提供。 它也面向 Vertex AI 上的企业用户提供。

  4. 我们新的 AI 订阅计划是什么名称?该计划具有最高的使用限制,并可以访问我们最强大的模型和高级功能?

    • Google AI Pro

    • Google AI Ultra

    • Google AI Premium

    • Google AI Max

    • 正确答案: 这是非常正确的。 Google AI Ultra,它提供对我们最强大的模型和高级功能的访问权限,包括 Gemini、Flow 和 Whisk。 您还可以访问我们的代理研究原型 Project Mariner。 Google AI Ultra 将于美国开始推出,价格为每月 249.99 美元(首次用户的前三个月可享受 50% 的特别优惠),即将登陆更多国家/地区。

  5. 哪个更新的 Gemini 模型是我们刚刚向 Gemini 应用程序中的每个人提供的?

    • Gemini 1.5 Pro

    • Gemini 2.0 Pro

    • Gemini 2.5 Pro

    • Gemini 3.0 Pro

    • 正确答案: 没错,我们最近开始向 Gemini 应用程序中的每个人推出 Gemini 1.5 Pro。 它更快、响应速度更快,并且可以免费提供 128K 上下文窗口。

  6. 我们的新 AI 电影制作工具的名称是什么?该工具专为 Google 最先进的模型(Veo、Imagen 和 Gemini)设计。

    • Firefly

    • Runway

    • Flow

    • Premiere

    • 正确答案: 让我们顺其自然吧。 Flow 为创意人士而构建,可以帮助故事讲述者不受限制地探索他们的想法,并通过将 Veo、Imagen 和 Gemini 结合在一起,为他们的故事创建电影剪辑和场景。 它今天面向美国的 Google AI Pro 和 Ultra 计划订阅者提供,更多国家/地区即将推出。

  7. 判断题:您现在可以获得完整的、定制的 Deep Research 报告,该报告将公共数据与您自己上传的文件相结合。

    • 正确答案: 是的,这并不是太好而不可能是真的:既然您可以将自己的 PDF、图像和来自云端硬盘的文件上传到 Deep Research,您将获得一个全面的理解。 这种理解可以交叉参考您独特的知识和更广泛的趋势,所有这些都在一个地方,从而节省您的时间和揭示您可能错过的联系。
  8. 借助 Search Live,您将能够使用您的 ____ 与 Search 进行来回对话。

    • 键盘

    • 照相机

    • 麦克风

    • 鼠标

    • 正确答案: 从您的相机直播,这是……搜索直播! 我们正在将 Project Astra 的直播功能引入搜索,以便您可以使用您的相机,实时与搜索来回讨论您所看到的内容。 例如,如果您对某个项目感到困惑并且需要一些帮助,只需点击 AI 模式或 Lens 中的“直播”图标,指向您的相机并提出您的问题即可。 就像那样,搜索变成了一个可以看见你的学习伙伴。

  9. 平均而言,人们与 Gemini Live 的对话比基于文本的 Gemini 对话长多少?

    • 两倍

    • 三倍

    • 四倍

    • 五倍

    • 正确答案: 击掌,没错! 人们喜欢 Gemini Live。 事实上,对话平均比基于文本的对话长五倍,因为它提供了获得帮助的新方法,无论是排除故障的设备还是获得个性化的购物建议。

  10. 什么是代理模式?

    • 一种降低设备功耗的方法

    • 一种新的 Gemini 功能,可以通过您的指示来管理复杂的任务

    • 一种用于控制智能家居设备的语音命令系统

    • 一种在多个设备之间同步数据的协议

    • 正确答案: 您的脑海中没有在假期模式中:代理模式是一个朗朗上口的名字,指的是一项新的实验性功能,当您将 Gemini 应用程序升级到 Ultra 计划时,该功能很快就会出现在桌面设备上,届时您只需说明您的目标,Gemini 就会智能地安排实现目标的步骤。 代理模式结合了高级功能,例如实时网页浏览、深度研究以及与您的 Google 应用程序的智能集成,因此它可以从头到尾以最少的监督来管理复杂的多步骤任务。

  11. 如果您前往美国的 Search Labs,您可以上传什么内容来虚拟试穿数十亿件服装商品?

    • 一张自拍照

    • 一张全身照

    • 一张服装照

    • 一张模特照

    • 正确答案: 没错! 通过我们的“试穿”实验,美国的在线购物者现在只需上传一张自己的照片,即可试穿数十亿件服装商品。 它由一种新的自定义图像生成模型提供支持,该模型了解人体以及服装的细微差别,例如不同的材料如何在不同的身体上折叠、拉伸和悬垂。

  12. 在接下来的几周内,我们将通过连接您最喜欢的一些 Google 应用程序,使 Gemini Live 更加个性化,以便您可以在对话中采取行动。 您将能够连接哪些应用程序?

    • Gmail、文档和表格

    • 地图、日历、任务和 Keep

    • 照片、云端硬盘和联系人

    • YouTube、音乐和播客

    • 正确答案: 没错:Gemini Live 将更深入地融入您的日常生活,首先从 Google 地图、日历、任务 Keep 开始,以后还会添加更多应用程序连接。 您可以随时在应用程序的设置中管理这些应用程序连接和您的信息。

  13. AI 概述现在可在超过 ____ 个国家/地区和超过 ____ 种语言中使用。

    • 100 和 20

    • 150 和 30

    • 200 和 40

    • 250 和 50

    • 正确答案: 您的目标非常准确。 现在,AI 概述可在超过 200 个国家/地区和超过 40 种语言中使用,并增加了对阿拉伯语、中文、马来语、乌尔都语等的支持。

  14. 我们的新视频通信平台 Google Beam 结合了我们的 AI 视频模型和 ____,将标准的 2D 视频流转换为逼真的 3D 体验。

    • 神经辐射场 (NeRF) 技术

    • 增强现实 (AR) 叠加

    • 全息投影

    • 虚拟现实 (VR) 环境

    • 正确答案: 没错,Google Beam 将我们的 AI 视频模型与神经辐射场相结合,将标准的 2D 视频流转换为逼真的 3D 体验,这使得人们可以比以往任何时候都更轻松地以自然、引人入胜的方式进行联系。

  15. 在 I/O 演示中,XR 产品经理 Nishtha Bhatia 使用 Android XR 眼镜上的 Gemini 来回忆她在后台喝的咖啡的细节。 这是什么细节?

    • 咖啡店的名字

    • 咖啡的价格

    • 咖啡里使用的牛奶类型

    • 咖啡的杯子大小

    • 正确答案: 你已经要喝拿铁了,因为这是正确的。 Nishtha 使用了她的 Android XR 眼镜上的 Gemini 来记住咖啡店的名字。 她还用她的眼镜安排了当天晚些时候在那家咖啡馆喝咖啡、拍摄 I/O 与会者的照片,并实时翻译印地语和波斯语的对话。

Google I/O 2025 的核心发布内容详解

Google I/O 2025 大会不仅仅是一场技术发布会,更是对未来人机交互方式和人工智能应用场景的一次深刻探索。以下将对本次大会的核心发布内容进行更深入的解读:

Gemini 模型与 Deep Think

Gemini 是 Google 最强大的 AI 模型,而 Gemini 2.5 Pro 的推出及其引入的 Deep Think 模式,标志着 AI 在复杂推理能力上的一次重大飞跃。 Deep Think 并非简单的计算能力提升,而是模拟人类深度思考过程,解决需要深入分析和复杂步骤才能完成的任务。

  • Deep Think 的意义: 传统 AI 模型在处理复杂计算、逻辑推理或编码问题时,往往依赖于庞大的数据集和预训练的规则。 Deep Think 则通过一种实验性的增强推理模式,使得 Gemini 2.5 Pro 能够更有效地理解问题的本质,并逐步推导出解决方案,类似于人类专家在解决难题时的思维方式。
  • 应用场景: 可以想象,在金融风控领域,Deep Think 可以用于分析复杂的交易数据,识别潜在的欺诈行为;在药物研发领域,它可以模拟分子间的相互作用,加速新药的发现过程;在软件开发领域,它可以帮助程序员调试复杂的代码错误,提高开发效率。
  • API 的重要性: 通过 Gemini API 将 Deep Think 提供给值得信赖的测试人员,是一种谨慎而明智的做法。 这不仅可以收集用户反馈,不断优化模型,还可以避免潜在的安全风险和伦理问题,确保 AI 技术的健康发展。

AI 模式(AI in Search)的全面铺开

AI in Search (AI 模式)的推出,代表着搜索引擎的一次革命。它不再仅仅是信息的索引工具,而是成为了一个智能的知识伙伴,能够理解用户的意图,提供个性化的、深入的解答。

  • 超越传统搜索: 传统的基于关键词的搜索,往往只能返回一些相关的网页链接,用户需要自己筛选和整合信息。 AI 模式则可以根据用户的搜索意图,直接生成一段简洁明了的答案,并提供相关的网络链接,方便用户进行更深入的探索。
  • 更高级的推理和多模态: AI 模式利用更高级的推理和多模态能力,可以理解用户的提问方式、上下文语境,甚至可以识别图片、视频等多种类型的信息,提供更准确、更全面的答案。
  • 用于 AI 模式和 AI 概述的 Gemini 2.5: 将 Gemini 2.5 引入到美国的搜索中,用于 AI 模式和 AI 概述,意味着 Google 将把其最智能的模型应用于搜索场景,从而显著提升搜索的智能化水平。
  • 未来展望: AI 模式的持续迭代,将使得搜索引擎越来越像一个无所不知的专家,能够随时随地为用户提供知识服务。

Veo 3 与视频生成的未来

Veo 3 的发布,标志着 AI 在视频生成领域取得了新的突破。它不仅提高了视频的质量,还首次实现了音频的生成,使得 AI 生成的视频更加逼真、更具表现力。

  • 音频的重要性: 音频是视频的重要组成部分,它可以增强视频的感染力,提升用户的沉浸感。 Veo 3 能够生成与视频内容相匹配的音频,例如城市街道场景中的交通噪音,公园里鸟儿的歌声,甚至是角色之间的对话,这使得 AI 生成的视频更加生动逼真。
  • 技术亮点: Veo 3 在文本和图像提示、真实物理效果和准确的唇部同步方面表现出色,这表明 Google 在 AI 视频生成领域的技术实力已经达到了一个新的高度。
  • 应用场景: 除了娱乐领域,Veo 3 在教育、营销、新闻等领域也有着广阔的应用前景。 例如,它可以用于制作教学视频、产品宣传片、新闻报道等,从而提高内容创作的效率和质量。

Google AI Ultra 订阅计划

Google AI Ultra 订阅计划的推出,标志着 Google 开始将其 AI 技术商业化,并为用户提供更高级、更定制化的 AI 服务。

  • 最高的使用限制和强大的模型: Google AI Ultra 订阅计划提供最高的使用限制,并可以访问 Google 最强大的模型和高级功能,包括 Gemini、Flow 和 Whisk。 这使得用户可以尽情地探索 AI 的潜力,并将其应用于各种实际场景中。
  • Project Mariner 代理研究原型: 获取对 Project Mariner 的访问权表明Google正在认真对待自主代理的未来,这些代理能够代表用户执行复杂的任务。
  • 为高级用户和开发者量身定制: Google AI Ultra 订阅计划的价格相对较高,这表明它主要面向高级用户和开发者,他们需要强大的 AI 工具来提高工作效率和创造力。

Gemini 1.5 Pro 的普及

Gemini 1.5 Pro 的普及,意味着 Google 将其最先进的 AI 技术 democratized,让更多的用户能够体验到 AI 的强大能力。

  • 更快的速度和响应速度: Gemini 1.5 Pro 比之前的版本更快、响应速度更快,这使得用户可以更流畅地与 AI 进行交互,从而提高工作效率。
  • 更大的上下文窗口: Gemini 1.5 Pro 拥有 128K 的上下文窗口,这意味着它可以处理更长的文本、图像和音频,从而更好地理解用户的意图。
  • 免费提供: 更重要的是,Gemini 1.5 Pro 是免费提供的,这使得更多的用户能够体验到 AI 的强大能力,从而推动 AI 技术的普及。

Flow:AI 电影制作工具

Flow 的发布,旨在改变电影制作的方式,让更多的人能够参与到电影创作中来。

  • 面向创意人士: Flow 专为创意人士而构建,它可以帮助故事讲述者不受限制地探索他们的想法,并通过将 Veo、Imagen 和 Gemini 结合在一起,为他们的故事创建电影剪辑和场景。
  • 简化电影制作流程: Flow 可以简化电影制作流程,降低电影制作的门槛,让更多的人能够参与到电影创作中来。
  • AI 赋能电影创作: Flow 利用 AI 技术,可以帮助电影创作者更轻松地生成电影剪辑、添加特效、修改场景,从而提高电影制作的效率和质量。

Deep Research 的个性化定制

Deep Research 报告的个性化定制,意味着 Google 开始关注用户自己的数据,并将其与公共数据相结合,为用户提供更深入、更全面的分析报告。

  • 整合个人数据和公共数据: Deep Research 允许用户上传自己的 PDF、图像和来自云端硬盘的文件,并将其与公共数据相结合,生成个性化的分析报告。
  • 全面的理解: 通过整合个人数据和公共数据,Deep Research 可以帮助用户更全面地理解问题的本质,发现他们可能错过的联系。
  • 节省时间和发现联系: Deep Research 可以节省用户的时间,并揭示他们可能错过的联系,从而提高工作效率和决策质量。

Search Live:用相机与搜索互动

Search Live 的推出,旨在改变用户与搜索引擎的交互方式,让用户能够通过相机与搜索引擎进行实时对话。

  • 实时互动: Search Live 允许用户使用相机,实时与搜索引擎进行对话,从而获得更直观、更准确的解答。
  • 解决疑惑: 如果用户对某个项目感到困惑并且需要一些帮助,只需点击 AI 模式或 Lens 中的“直播”图标,指向相机并提出问题即可。
  • 学习伙伴: 就像那样,搜索变成了一个可以看见你的学习伙伴,可以随时随地为你提供帮助。

Gemini Live:更长的对话和更个性化的帮助

Gemini Live 的推出,旨在提供更长的对话和更个性化的帮助,让用户能够更深入地与 AI 进行互动。

  • 更长的对话: 人们与 Gemini Live 的对话平均比基于文本的对话长五倍,这表明用户喜欢 Gemini Live 提供的互动方式。
  • 个性化的帮助: Gemini Live 可以提供更个性化的帮助,无论是排除故障的设备还是获得个性化的购物建议。

代理模式:委派任务给AI

代理模式的推出,旨在让 AI 能够代表用户执行复杂的任务,从而解放用户的生产力。

  • 委派任务: 代理模式允许用户说明他们的目标,然后 Gemini 就会智能地安排实现目标的步骤。
  • 自主执行: 代理模式结合了高级功能,例如实时网页浏览、深度研究以及与 Google 应用程序的智能集成,因此它可以从头到尾以最少的监督来管理复杂的多步骤任务。

Search Labs 的虚拟试穿

Search Labs 的虚拟试穿功能,旨在为在线购物者提供更便捷、更真实的购物体验。

  • 虚拟试穿: 通过“试穿”实验,美国的在线购物者现在只需上传一张自己的照片,即可试穿数十亿件服装商品。
  • 了解人体和服装的细微差别: 虚拟试穿功能由一种新的自定义图像生成模型提供支持,该模型了解人体以及服装的细微差别,例如不同的材料如何在不同的身体上折叠、拉伸和悬垂。

Gemini Live 与 Google 应用程序的连接

Gemini Live 与 Google 应用程序的连接,旨在让 AI 更深入地融入用户的日常生活,从而提供更便捷、更个性化的服务。

  • 连接 Google 地图、日历、任务和 Keep: Gemini Live 将更深入地融入用户的日常生活,首先从 Google 地图、日历、任务和 Keep 开始,以后还会添加更多应用程序连接。
  • 可在对话中采取行动: 通过连接 Google 应用程序,Gemini Live 可以让用户在对话中采取行动,例如安排会议、设置提醒、记录笔记等。
  • 用户可以管理应用程序连接: 用户可以随时在应用程序的设置中管理这些应用程序连接和他们的信息,从而保护自己的隐私。

全球范围内的 AI 概述

AI 概述的全球范围推广,意味着 Google 正在努力让更多的用户能够体验到 AI 的便捷和高效。

  • 可在超过 200 个国家/地区和超过 40 种语言中使用: 现在,AI 概述可在超过 200 个国家/地区和超过 40 种语言中使用,并增加了对阿拉伯语、中文、马来语、乌尔都语等的支持。
  • 让更多用户体验到 AI 的便捷: 通过将 AI 概述推广到全球范围,Google 正在努力让更多的用户能够体验到 AI 的便捷和高效,从而推动 AI 技术的普及。

Google Beam:3D视频通信

Google Beam 的推出,旨在提供更逼真、更沉浸式的视频通信体验。

  • 基于神经辐射场的 3D 视频: Google Beam 将我们的 AI 视频模型与神经辐射场相结合,将标准的 2D 视频流转换为逼真的 3D 体验。
  • 更轻松地进行联系: 这使得人们可以比以往任何时候都更轻松地以自然、引人入胜的方式进行联系。

Android XR 眼镜上的 Gemini

Android XR 眼镜上的 Gemini,展示了 AI 在增强现实领域的巨大潜力。

  • 增强现实互动: 在 I/O 演示中,XR 产品经理 Nishtha Bhatia 使用 Android XR 眼镜上的 Gemini 来回忆她在后台喝的咖啡的细节,以及安排行程、翻译对话。
  • AI 赋能 XR: 这表明 AI 可以赋能 XR 技术,从而提供更智能、更便捷的增强现实体验。

总而言之,Google I/O 2025 是一次充满创新和突破的盛会。 Google 不仅展示了其在 AI 领域的最新技术成果,还描绘了 AI 赋能的未来图景,充分展现了以 Gemini 为代表的 AI 模型在搜索、视频生成、电影制作、个人数据分析、实时互动、任务委派、虚拟试穿和应用程序连接等领域令人兴奋的应用前景。这些创新不仅将深刻地改变人机交互方式,也将为各行各业带来前所未有的发展机遇。