刚刚,苹果官宣iPhone 将搭载最强AI,马斯克第一个跳出来骂
一觉醒来,你的iPhone即将用上最强AI了。
就在刚刚,苹果和Google发布联合声明,双方达成达成多年深度合作协议。下一代「苹果基础模型」将直接基于Google的Gemini模型和云技术构建。
这意味着,未来驱动Apple Intelligence的核心大脑,将流淌着Google的血液。
曾经那个被诟病「人工智障」的Siri,今年晚些时候就会迎来基于Gemini模型的彻底重造。
而苹果所一直重视的隐私标准也在声明中被着重强调。Google表示,Apple Intelligence仍将在设备端或通过「私有云计算」运行。这意味着,数据不会被简单粗暴地卖给Google。
这个消息一出,苹果和Google股价曾一度双双上涨,Alphabet市值直接突破4万亿美元大关。看来资本市场对这次「认清现实」的合作,还是投了赞成票。
但马斯克第一个坐不住了,他直接在社交媒体上开炮:「考虑到Google已经拥有Android和Chrome,这似乎是一种不合理的权力集中」。
不过在苹果与Google这个合作落地后,最尴尬的其实是OpenAI。尽管苹果告诉CNBC,目前不会对与OpenAI的协议作出任何更改,但地位的悬殊已肉眼可见。
Equisights Research的分析师一针见血地指出:Google的Gemini将成为苹果设备的「默认智能层」,而OpenAI则被迫退居「辅助角色」。
当然,如无意外,国行版AI Siri预计不会使用Gemini,更可能是与国内本土厂商合作,也可能是使用自研模型的特别版本等等。
目前苹果最好的选择
其实关于苹果与Google合作这事,早有征兆。
早在去年8月,彭博社就报道称苹果正在与Google进行早期谈判,计划使用定制的Gemini模型来支持新版Siri。后来到了11月该媒体又爆料称,苹果计划每年支付约10亿美元来使用Google的AI技术。
那么在这场交易里,苹果要的是什么?
答案很简单:时间。
在2024年6月的WWDC开发者大会上,苹果展示了由Apple Intelligence驱动的新版Siri,包括更强的上下文理解、屏幕感知、跨应用操作等新功能。
根据苹果当时的表述,新版Siri功能最初被安排在iOS 18的更新周期内逐步推出,但实际上,许多重要的AI功能一早跳票,如今最早发布时间的统一口径甚至来到了今年春季。
如此漫长的延期背后,暴露的正是苹果在大模型技术上的短板。
为了弥补这一差距,苹果不得不向外部寻求支持。根据此前彭博社的报道,Google给苹果提供的Gemini模型拥有1.2万亿参数,远超苹果现有的1500亿参数模型。
作为参考,去年7月份,月之暗面首发开源了Kimi-K2-Instruct模型,其总参数达1万亿,成为首个突破万亿参数的国产开源基座模型。
这种参数规模上的巨大差距,直接反映在模型的推理能力、知识广度和任务处理的复杂度上——这正是新版Siri实现「摘要器」和「任务规划」等核心功能所必需的技术基础。
而苹果要在短时间内训练出参数规模相当、性能可比的自研模型,不仅需要海量算力投入和高质量训练数据,更需要稳定且经验丰富的研发团队。
但问题的核心在于,苹果AI团队正面临严重的人才流失。自去年7月至今,苹果AI团队已有约数十名核心成员跳槽。
苹果基础模型团队负责人庞若鸣被Meta以2亿美元挖走,负责Siri智能搜索项目的Ke Yang刚担任负责人不久就决定投奔Meta,多位去年发表AI论文的关键研究员也相继出走OpenAI、Cohere、xAI……
这支本就100多人的小团队,却在最需要攻坚的时刻折损了主将。
这是一场不折不扣的信心危机,当你的员工用脚投票时,说明问题已经不是多发几个月工资能解决的了。
苹果的保密文化曾经是它的护城河,严格的信息管控让产品发布会永远充满惊喜,让竞争对手无从模仿。
但在AI时代,这套打法失效了。当研究人员不能自由发表论文,无法在学术界建立声誉;缺乏开源交流,也意味着错过整个AI社区的快速迭代。
更关键的是,苹果算力资源起步较晚,训练数据因隐私政策限制而相对匮乏。
当OpenAI和Google投入数万张GPU训练超大规模模型时,苹果需要在用户隐私保护和数据使用规模之间寻找平衡,这在一定程度上制约了其大模型的训练进度。
于是,别无选择的苹果,只能向外「求援」。
为什么是Google,而不是别人?
如果回看联合声明,那句「经审慎评估,Google提供了最有力的基础」,颇为玩味。翻译成人话就是:我们也想自己搞,但对手实在太快了,而Google确实是目前能抓到的最强稻草。
首先,Google足够强大,也足够稳定。
作为AI领域的老牌巨头,Google旗下的Gemini 2.5 Pro在大多数大模型排行榜上名列前茅,技术实力毋庸置疑。这种技术实力的强大也反映在Token使用量和市场使用份额上。
去年,Google AI团队的「宣传委员」Logan Kilpatrick就在社交媒体上透露,谷歌每月处理的Tokens用量达到1.3千万亿,算力消耗创行业历史纪录。
去年11月,Google更是推出了迄今为止最强版本的Gemini 3系列模型,其多项核心指标超越ChatGPT,也让OpenAI CEO奥特曼紧急拉响「红色警报」,亲自下令改进ChatGPT。
根据SimilarWeb 1月份发布的最新数据,Gemini全球网页端流量份额首次突破20%的市场份额,而ChatGPT的份额从2025年1月86%暴跌至64.5%。此消彼长间,用户的支持就是Gemini最好的证明。

此外,Google的优势不止于此。
作为海外为数不多AI全栈自研的巨头,Google拥有全球顶尖的云计算基础设施和工程团队,能支撑Siri每日海量的请求。这是OpenAI和Anthropic这样的初创公司难以企及的。
合作的历史也为这次交易铺平了道路。
从初代iPhone内置Google地图和YouTube,到Safari每年支付超200亿美元的搜索引擎协议,再到苹果将部分iCloud数据存储在云上——两家公司多年累积的信任,是新创公司无法提供的。
Google愿意妥协,这点至关重要。
按照联合协议,Google Gemini模型将运行在苹果的「私有云计算」服务器上,用户数据不会接触Google的系统。这意味着苹果既能享受Google的技术,又能保持对用户隐私的掌控。
值得一提的是,苹果正将新版Siri定位为设备上的新一代搜索入口。
如果按照之前的爆料信息,Siri背后的知识和推理由Google提供,相当于延续并升级了双方在搜索领域的联盟——当用户向Siri提问时,依然是Google的技术在发挥作用,只不过形式从关键词搜索变成了对话式查询。
可以说,在苹果只能从外面选的困境下,Google是唯一一个在技术、信任、控制权和商业条款上都能满足要求的选项。
按时交货,回归务实
集成Google Gemini,最直接的好处是,苹果按时交货的概率显著提升了。
如果坚持纯自研路线,考虑到人才流失和技术差距,今年春季这个时间点能否达成充满不确定性。但通过引入Google已开发完备的模型,苹果获得了一条现成的「捷径」。
根据此前爆料,Gemini预计将负责Siri中的摘要器和任务规划功能,也就是整合信息并决定如何执行复杂任务的核心能力,其他功能仍由苹果自家模型处理。这种「双轨并行」的策略,既满足了近期产品需求,又为内部研发争取了缓冲空间。
更值得注意的是,苹果的技术架构本身就为这种集成做好了准备。
新版Siri采用的是模块化设计:设备端的小模型负责简单任务和隐私敏感操作,云端的大模型负责复杂推理和知识查询。这种架构天然支持「插拔式」的模型切换,第三方AI可以接入系统,而不需要推倒重来。
当然,国行版AI Siri预计不会使用Gemini。苹果必须为不同市场准备不同的AI方案,比如与国内本土厂商合作,也可能是使用自研模型的特别版本。而这种灵活性,也是模块化架构的优势所在。
就这样,在AI即使几个月都嫌太慢的极速迭代周期里,苹果用资本和生态壁垒,换取了最宝贵的「时间窗口」。这不仅是为了提振iPhone的销量,更是为了保住Apple Intelligence在用户心中的口碑。
对于Google而言,这同样是一场史诗级的胜利。它成功将自家的模型植入了全球数十亿活跃的苹果设备。
在AI颠覆一切的洪流面前,即便是苹果,也无法独自成为一座孤岛。放下骄傲,回归务实,或许才是巨头们在AI时代最清醒的生存本能。
