谷歌不想赢英伟达
日期:2026-04-24 21:53:33 / 人气:10

英伟达和谷歌,两场大会,两个人,说了同一个词,却道出了两种截然不同的竞争逻辑。3月16日,圣何塞GTC 2026大会上,黄仁勋将数据中心定义为“生产Token的工厂”,并给出惊人判断:到2027年,这个市场的需求规模至少1万亿美元。4月22日,拉斯维加斯Google Cloud Next 2026大会上,桑达尔·皮查伊则抛出另一组关键数据:谷歌每分钟处理160亿个token,较上个季度的100亿大幅提升;今年谷歌的资本开支将达到1750亿至1850亿美元。
两人都在谈论Token,但黄仁勋描述的是供给端的潜力,皮查伊展示的则是需求端的规模。过去很长一段时间,外界习惯性地将谷歌放在追赶英伟达的位置,但这场看似针锋相对的较量,实则并非同一场竞争——谷歌从来不是想在芯片战场打败英伟达,它们从一开始,就跑在两条完全不同的赛道上。
一、卖铲子的,和造工厂的:两种截然不同的核心逻辑
理解谷歌与英伟达的差异,首先要认清它们各自在AI产业链中的定位——一个是“卖铲子”的供给方,一个是“造工厂”的运营方,核心业务逻辑截然不同。
英伟达的核心产品,是AI时代的生产资料——GPU通用算力。从OpenAI到Meta,从字节跳动到主权基金,几乎所有头部AI玩家,都在英伟达的客户名单上。其CUDA生态经过二十年持续迭代,汇聚了超过600万全球开发者、900余个CUDA-X加速库,早已成为AI算力底层的标准件,形成了难以撼动的生态壁垒。黄仁勋曾直言:即便竞争对手的架构是免费的,也未必足够便宜。
这份底气源于英伟达压倒性的市场地位和盈利能力:2025财年,NVIDIA数据中心业务收入超过1150亿美元,同比增长超过200%,毛利率高达75%以上,在全球AI加速器市场占据约80%的份额——换句话说,每10块AI算力芯片里,至少有8块来自英伟达。这是一门典型的“卖铲子”生意,而且是所有AI玩家都离不开的“铲子”。
谷歌的路径则完全不同,它提供的不是单一工具,而是一整套AI运行体系。从自研TPU芯片,到训练Gemini大模型,再到运行在Google Cloud之上,最后对外提供完整服务,谷歌实现了从底层算力到上层应用的全链路打通。目前,Google云业务年收入已接近600亿美元,过去一年增长接近50%,AI相关需求成为其最核心的增长驱动力。
简单来说,英伟达的逻辑是“把设备卖给所有人”,靠算力硬件和生态赚取高额利润;谷歌的路径则是“先把自己的体系跑起来”,搭建一座完整的“Token工厂”,再将多余的产能通过云服务对外输出。一个掌握生产资料,一个组织生产过程,两者的竞争从根源上就不是同一维度的较量。
二、TPU一刀切两半:谷歌的战略转向,只为适配Agent时代
此次Google Cloud Next大会上,谷歌TPU的最大变化,不在于芯片参数的提升,而在于结构的彻底拆分——这一转向,恰恰体现了谷歌与英伟达的核心差异:英伟达优化单颗芯片性能,谷歌则聚焦集群效率与整体成本。
从2017年TPU v2到2025年v7 Ironwood,整整六代产品,谷歌始终采用单颗通用芯片,同时承载大模型训练与推理任务。直到此次发布第八代TPU,谷歌首次进行战略转向,将训练与推理拆分为两颗专属独立芯片:TPU 8t与TPU 8i。
TPU 8t(代号Sunfish)由博通设计,采用台积电2nm工艺,专门负责大模型训练。单个超级Pod(由9600颗芯片组成)的峰值算力达121 EFLOPS(FP4精度),是上一代产品的2.8倍,而价格保持不变,能将前沿大模型的开发周期从数月缩短到数周。
TPU 8i(代号Zebrafish)由联发科设计,这也是联发科首次进入超大规模数据中心芯片领域,专门负责推理任务。其性价比较上一代提升80%,集合操作延迟最高降低5倍。
拆分的原因十分直接:Agent时代,推理和训练的负载特征完全不同。一个智能体完成任务,往往需要多次调用模型,每一次调用都要求低延迟、高并发,这与训练阶段“集中算力、长期投入”的需求截然不同。一颗芯片同时承载两项任务,只会导致“哪头都凑合,哪头都不够好”。
背后的算账逻辑更清晰:训练是一次性投入,模型训好即可;推理是持续性消耗,用户每使用一次AI服务,就会产生一次推理需求。当谷歌每分钟处理的token从100亿跃升至160亿,推理端的效率开始直接决定整个AI体系的成本结构——谷歌优化TPU结构,本质上是在降低自己的运营成本,这是英伟达难以体会的核心动力。
三、Anthropic的一百万颗芯片:谷歌的突破口,是成本优势
TPU从谷歌内部工具走向外部市场,有一个标志性事件:开始承载头部大模型公司的核心负载。2025年10月,Anthropic与谷歌签订多年期协议,最多将使用100万颗Ironwood TPU,这笔交易价值数百亿美元,也是AI历史上最大的单笔算力交易。
紧接着,Meta传出消息,正考虑从2027年起部署TPU。消息一出,英伟达股价当天大跌——这对英伟达来说,是最危险的信号:不是某个小公司在试水,而是Anthropic、Meta这样的全球头部大模型公司,都计划将自家最核心的推理负载,押注在TPU上。
谷歌的策略十分明确:用Anthropic和Meta做样板客户,证明TPU能够替代英伟达GPU,然后通过Google Cloud平台,将TPU算力卖给所有企业。如果说英伟达的核心优势在软件生态(CUDA形成的强绑定),那么谷歌的突破口,就在于成本。
Ironwood TPU的核心目标,就是显著降低AI算力的总拥有成本。精密分析显示,其每美元性能/价格比较上一代提升2倍,相比NVIDIA B200,在总拥有成本上具有约30%~41%的优势,能有效帮助企业控制推理阶段的成本。
这正是谷歌的核心底气:当推理成本被压到对手的一半以下,英伟达的软件壁垒就会开始松动。对企业而言,省下来的成本,足够覆盖从CUDA生态迁移到TPU体系的成本——技术壁垒依然存在,但经济驱动会改变企业的选择。
四、160亿token背后的真话:谷歌是最大的Token消费者
皮查伊在Cloud Next大会上抛出的三个数字——每分钟160亿个token、75%的新代码由AI生成、今年1750亿至1850亿美元的资本开支,看似分散,实则指向同一件事:谷歌已经成为AI时代基础设施级的Token消费体,其需求规模,早已超出单一模型公司的范畴。
这些token,不仅包括对外的API调用,还涵盖了谷歌自身的核心业务:搜索、广告、YouTube推荐、安全系统,以及内部开发。从上个季度的100亿/分钟,到如今的160亿/分钟,单季度增长超过60%,按这个规模估算,谷歌每天处理的token已经达到万亿级。
作为对比,当前头部大模型公司的API调用规模,大致处在数百亿到千亿token/天的区间——谷歌的需求体量,已经成为全球AI算力需求的重要支柱。这与黄仁勋提出的“Token工厂”,形成了鲜明对照。
黄仁勋描述的是一个卖方市场:Token是商品,GPU是生产设备,他甚至在GTC大会上,连Token的定价体系都替行业设计好了(从免费到150美元每百万token),核心是围绕供给侧构建自己的商业体系。而谷歌则在放大需求侧的规模,它自己就是全世界最大的Token消费者。
这也解释了谷歌为何如此重视TPU的性价比:每降低一分钱的推理成本,省下来的钱首先进入的是谷歌自己的口袋。相比之下,英伟达作为“卖铲子”的厂商,对算力成本的敏感度,远不及谷歌这个“最大消费者”——这种差异,也决定了两家公司的技术迭代方向。
五、谁会赢?不是零和博弈,而是赛道差异
短期来看,英伟达依然是赢家。CUDA生态的深厚壁垒、80%的市场份额、75%以上的毛利率,这些优势不会一夜之间被颠覆。黄仁勋直言,到2027年,英伟达将迎来至少1万亿美元的确定性算力需求,其中60%来自全球前五大超大规模云厂商,剩余40%分散于企业私有部署、主权云、边缘计算及全行业场景——这份预判,有着十足的底气。
但谷歌正在把竞争,拉到英伟达不擅长的维度。此次Cloud Next大会上,谷歌公布了一系列重磅合作:GE在谷歌的Agent平台上跑了超过800个智能体,覆盖制造、物流和供应链;毕马威首月部署超过100个智能体,90%的员工正在使用;默克签订了10亿美元的合作合同。更值得关注的是,谷歌云CEO库里安确认,基于Gemini构建的苹果新一代Siri将于今年发布,这份合作每年价值约10亿美元。
当企业客户的需求,从“买一块GPU”变成“帮我管住一千个智能体”,卖芯片的就很难比得过卖系统的了。英伟达解决的是“有没有算力”的问题,而谷歌要解决的是“算力怎么被用起来”的问题——两者的核心价值,已经不在同一个层面。
这不是一场“谁杀死谁”的零和博弈。就像石油行业,既有卖钻头的哈里伯顿,也有自己钻井、炼化、零售一条龙的沙特阿美,两种模式会长期共存。但有一件事正在发生变化:过去,英伟达是所有AI玩家的唯一选择;现在,谷歌证明了另一条路走得通——Anthropic选了TPU,Meta在考虑TPU,苹果把Siri交给了谷歌Gemini。
选择变多了,对垄断者来说,这就是最大的威胁。ChatGPT出来后的两年多,谷歌看起来像一个追赶者,但Cloud Next大会讲了一个不同的故事:谷歌没有赢下大模型竞赛,但它把AI重新变回了一个基础设施问题——而做基础设施,恰好是谷歌最擅长的事。
谷歌不是在追英伟达,也不想赢英伟达。它们跑的,从来不是同一场比赛。
作者:杏彩娱乐
新闻资讯 News
- 给孩子的一封信:在AI平权时代,...04-24
- 给孩子的一封信:在AI平权时代,...04-24
- lululemon有毒?户外品牌环保:...04-24
- 谷歌不想赢英伟达04-24

