【Apple 全新版本 Siri 将由 Google 的 Gemini 提供技术支持】
据彭博社的 Mark Gurman 报道,Apple 正在开发更智能、功能更强大的 Siri 版本将由 Google 的 Gemini 提供技术支持。Apple 将每年向 Google 支付约 10 亿美元,用于购买 Google 开发的拥有 1.2 万亿个参数的 AI 模型。
参数是衡量模型理解和响应查询能力的指标。一般来说,参数越多,模型能力越强,但训练和架构也是影响因素。Mark Gurman 表示,Google 的模型参数水平远超 Apple 目前的模型。
目前基于云端的 Apple Intelligence 版本使用了 1500 亿个参数,但没有具体的指标详细说明 Apple 正在开发的其他模型的性能如何。
Apple 将使用 Gemini 来实现与摘要、多步骤任务规划和执行相关的功能,但 Apple 的模型将用于部分 Siri 功能。Google 为 Apple 开发的 AI 模型将在 Apple 的私有云计算服务器上运行,因此 Google 无法访问 Apple 的数据。
Gemini 采用 Mixture-of-Experts 架构,因此尽管总共有超过万亿个参数,但每次查询只会激活其中一小部分。这种架构能够在不产生显著处理成本的情况下,实现巨大的总计算能力。
Apple 考虑过使用自家的 AI 模型开发 LLM Siri,也测试过 OpenAI 和 Anthropic 的方案,但最终因为 Anthropic 的费用过高而选择了 Gemini。Apple 已经与 Google 在搜索结果方面建立了合作关系,Google 每年向 Apple 支付约 200 亿美元,使其成为 Apple 设备的默认搜索引擎。
尽管 Apple 目前计划依赖 Google 的 AI 技术,但 Apple 也计划继续研发自己的模型,并在其生命周期管理(LLM)能力足够强大时过渡至内部解决方案。 Apple 已经在开发拥有 1 万亿个参数的云端模型,该模型最快可能在 2026 年投入使用。在开发内部模型期间,Apple 不可能公开其与 Google 的合作安排。
Apple 原计划在 iOS 18 中推出全新版本的 Siri,但由于存在一些问题,该公司不得不彻底打造 Siri 的底层架构,并大幅推迟了发布时间。更智能的 Apple Intelligence Siri 预计将在 2026 年春季发布的 iOS 26.4 更新中推出。
Siri 将能够回答更复杂的查询,并在 App 内外完成更复杂的任务。Siri 的功能将更接近 Claude 和 ChatGPT,尽管 Apple 目前没有推出聊天机器人 app 的计划。
