2025 年 10 月 13 日,OpenAI 正式对外公布了一则足以震动全球 AI 与半导体行业的消息:经过 18 个月的秘密研发,其首款自研 AI 定制芯片即将落地,且将与芯片巨头博通携手,于 2026 年下半年起逐步搭建一个规模高达 10 千兆瓦(GW)的巨型计算系统。这一消息不仅让博通股价当日暴涨近 10%,更标志着 OpenAI 在激烈的全球算力竞赛中,正式迈出了 “亲自下场造芯” 的关键一步。
一、GPT 深度参与芯片设计,打造 “人类最大工业项目”
“当下的 AI 基础设施建设,堪称人类历史上规模最大的联合工业项目,而我们正在定义文明的下一代操作系统。” 在官方发布会上,OpenAI CEO 萨姆・奥特曼(Sam Altman)如此定位此次与博通的合作。这场价值数十亿美元的合作,绝非简单的 “芯片采购”,而是深入到硬件设计核心的深度协同。
据了解,OpenAI 将自主设计 GPU 芯片,并把多年来开发 GPT 等强大 AI 模型过程中积累的技术经验、数据洞察,直接融入芯片的底层架构设计;博通则发挥其在定制芯片领域的系统级能力,与 OpenAI 共同推进芯片研发,并负责后续服务器机架、网络设备等整套计算系统的部署落地。
此次合作中最具突破性的亮点,当属 GPT 模型在芯片设计环节的深度参与。OpenAI 联合创始人格雷格・布罗克曼(Greg Brockman)透露:“我们已成功将自研模型应用于这款芯片的设计流程,这一尝试成效显著 —— 不仅缩短了整体开发周期,还大幅缩减了芯片面积。”
他分享了一个颇具代表性的细节:在芯片设计过程中,AI 模型提出的某项优化方案,即便人类顶尖芯片设计师最终也能想到,但至少需要多花费一个月时间。“当时我们面临一个紧迫的交付期限,摆在面前的选择是暂停进度审查 AI 的优化方案,还是让 AI 继续运行。最终我们决定信任 AI,让它持续推进。” 而最终的芯片性能与设计效率,完全达到了 OpenAI 的预期。
这一突破对 OpenAI 而言意义重大:当 “AI 设计 AI 芯片” 的闭环形成后,其技术迭代速度或将进一步拉开与竞争对手的差距,甚至可能对传统半导体设计行业(EDA)的现有模式产生颠覆性冲击。
二、10GW 算力再扩容,OpenAI 剑指 “算力自由”
“从晶体管蚀刻,到用户向 ChatGPT 提问后输出 token 的整个流程,我们能够实现全环节的思考与设计。通过对整个技术栈的全面优化,我们能收获巨大的效率提升,最终推出性能更强、速度更快、成本更低的 AI 模型。” 萨姆・奥特曼解释道,OpenAI 此次加码 10GW 算力,核心战略意图是实现 “垂直整合、端到端掌控”—— 掌握从硬件到应用的每一个关键环节。
而支撑这一战略的,是 AI 需求的爆炸式增长。“每当你将 AI 模型的效率优化 10 倍,市场对它的需求就会随之增长 20 倍。” 奥特曼强调,算力供给必须跟上需求增长的步伐,才能避免技术发展被 “算力瓶颈” 制约。
值得注意的是,此次新增的 10GW 算力,是在 OpenAI 已与英伟达、AMD 等芯片巨头建立合作的基础上额外增加的规模。这意味着,OpenAI 的总算力储备将达到 26GW—— 这一算力水平,相当于纽约市夏季用电高峰时期总耗电量的两倍多。
回顾 OpenAI 的算力增长轨迹,其扩张速度堪称惊人:从最初仅有的 2 兆瓦(MW)计算集群,到 2025 年底将突破 2 千兆瓦(GW),再到未来不久逼近 30 千兆瓦(GW),OpenAI 在算力布局上的投入从未停歇。
“理想状态下,每个人都应该拥有一个 24 小时不间断运行的个人 AI 代理,在后台为自己处理各类事务。” 布罗克曼以 ChatGPT 的演进为例,解释了 OpenAI 为何执着于大规模算力建设,“但现实是,目前我们只能向 Pro 用户开放这类持续服务功能,核心限制就是算力不足。我们的目标,就是打破这种算力稀缺的瓶颈,创造一个‘计算不再昂贵、智能随处可得’的世界 —— 当你有一个创新想法时,总有足够强大的算力支撑你将它变为现实。”
三、GPT6 的想象空间:从 “小时级服务” 到 “月级能力”,激活万亿级需求
在发布会上,萨姆・奥特曼通过一个假设性案例,勾勒出了未来 AI 模型的需求潜力,也间接透露了 GPT6 的发展方向。“我们从过往经验中反复验证:如果能将 GPT6 的能力提升到比 GPT5‘高 30 个 IQ 点’的水平,让它能持续处理问题数天、数周甚至数月,同时降低每个 token 的成本,那么由此产生的经济价值和市场需求,将会呈现爆发式增长。”
他用 Codex(OpenAI 推出的代码生成模型)的发展历程举例:“最初,当 ChatGPT 只能生成少量代码时,用户就愿意忍受麻烦,粘贴代码、等待生成,即便模型能做的事情有限;随着模型能力提升、用户体验优化,Codex 应运而生,其用户规模和使用频率增长得难以置信 —— 现在它已经能处理数小时的代码工作,且能力水平远超初期。而当这种‘高效服务’成为可能时,市场需求的增长会变得非常疯狂。”
奥特曼进一步预测:“或许 Codex 的下一个版本,就能处理数天的代码工作,达到顶尖工程师的水平;即便需要多迭代几个版本,这一目标也必然会实现。试想一下,当 AI 能为代码行业提供如此强大的支持时,需求会有多大?而这仅仅是一个行业 —— 未来,每个知识工作领域都可能迎来这样的变革。”
四、倒逼硬件技术演进:三维芯片、光学交换齐上阵,挑战与野心并存
OpenAI 的算力布局,不仅是自身发展的需要,也在倒逼全球 AI 硬件技术加速演进。发布会上,博通高管 Charlie Kawwas 分享了双方合作背后的硬件技术突破方向:“过去,我们设计 XPU(通用加速处理器)时,最多只能在 800 平方毫米的芯片面积内集成有限的计算单元;现在,我们正合作探索在二维空间内整合多个计算单元,下一步则是将这些单元堆叠到同一块芯片中 —— 也就是说,我们开始从‘二维’走向‘三维’(Y 维度或 Z 维度),探索立体芯片架构。”
而这还不是终点。“我们正在推进的最后一步突破,是将光学技术引入芯片 —— 这也是我们此次合作中宣布的重点:将 100 太字节(TB)的光学交换技术集成到同一块芯片中。”Charlie Kawwas 表示,这些技术创新将把计算系统的规模、总性能和功耗控制能力推向全新高度,“我认为,未来每 6 到 12 个月,AI 硬件的核心性能就会实现一次翻倍。”
当然,实现这一宏大愿景的道路充满挑战。布罗克曼坦言:“设计一款全新的芯片,再将其规模化交付,确保整套系统从硬件到软件端到端顺畅运行,需要投入的工作量堪称‘天文数字’。”
财务压力同样不容忽视。为支撑数百亿美元的算力建设成本,OpenAI 需要在 2025 年预计 130 亿美元收入的基础上,实现指数级增长。而萨姆・奥特曼的野心更远不止于此 —— 他近期向员工透露,OpenAI 的长期目标是到 2033 年建成 250GW 的算力规模。按照当前的硬件成本标准计算,这一目标的总投入将超过 10 万亿美元。
如今,当其他 AI 模型厂商尚未完全跟上 OpenAI 的步伐时,OpenAI 已构建起一个涵盖芯片设计、算力部署、生态合作的复杂且极具野心的联盟。接下来,行业将聚焦两大核心问题:OpenAI 能否如期实现这些宏大的算力蓝图?面对 OpenAI 的强势布局,英伟达、AMD 等巨头,以及谷歌、Meta 等科技公司又将如何调整策略,加入这场空前激烈的 AI 军备竞赛?所有人都期待,这场史无前例的 “算力豪赌”,最终能为全人类带来智能时代的普惠价值。