昨晚,美伊战场似乎出现了缓和的迹象。

一夜安静,双方都没有传出什么动作,这推动风险情绪快速消退。

另外,霍尔木兹海峡也传来好消息,印度、巴基斯坦等国都有油轮顺利通过的消息传出。

美国财政部长贝森特也公开降温,指当前石油供应缺口不构成危机,预测数月内油价将跌至80美元以下。

总之,战场缓和、油轮通航、政界表态,推动WTI原油日内暴跌4.55%,报94.77美元/桶;布伦特原油也一度回到了100美元以下。

美股高开高走,三大指数集体收涨,道指涨0.83%,纳指涨1.22%,标普500涨1.01%,通信设备、存储芯片等AI概念科技股成为领涨主力。

这一切,又是由于一场万众瞩目的盛会——

英伟达GTC 2026,一场被誉为AI界春晚的大会在昨晚举办了。

黄仁勋的演讲,看似是产品发布会,本质是全球AI算力的终极路线图。

从硬件、软件到生态,从训练、推理到应用,每一个环节都释放出利好。

我给大家逐一拆解下。

(一)营收王炸

这是全场最震撼的数字,没有之一。

黄仁勋说:“去年这个时候我说过,当时站在那个时间点上,我们看到了大约5000亿美元的需求——而且是高度确定的需求,包括到2026年的Blackwell和Rubin采购订单。那是我去年说的。”

他进一步表示:“不过我要告诉你们的是,现在在我所站的位置,我看到的是到2027年将达到至少1万亿美元的规模。

“事实上,我们很可能仍然会供不应求。我确信计算需求将远远高于这个数字。”

他进一步介绍称,英伟达约60%的业务来自超大规模云厂商(hyperscalers),也就是那些正在建设数据中心、需要大量AI GPU的公司。

另外40%的业务来自其他领域,包括云服务、企业客户、机器人、游戏以及超级计算等。

有没有吹牛?

或许会有一些,但整体还是可信的。

这个1万亿美元营收预测,是基于3年锁定订单的估计,而不是单一年度营收。

而且从上游的供应链可以推算,目前台积电3nm、4NP先进制程的产能被英伟达锁定50%左右,HBM4高带宽内存也供不应求,这些都反映了英伟达业务的高成长性。

根据最新的2025年报,公司营收2159亿美元,同比增长65.47%。

拆分来看,公司过去三个季度的营收增速分别为:55.60%、62.49%、73.21%。

趋势很明显,公司正处于新一轮需求加速增长的周期中。

(二)硬件革命。

本次硬件升级,是AI算力史上的一次革命,解决了算力、功耗、成本、延迟四大痛点。

1)顶级算力平台。

下一代Vera Rubin平台,采用了新一代的Rubin Ultra架构,性能华丽。

Rubin Ultra采用垂直插入式Kyber机架,一个NVLink域可连接144块GPU,算力密度较Rubin再提升50%,专为超大规模AI工厂、顶级科研机构设计。

2)算力爆炸。

Rubin GPU FP4推理算力达50 PFLOPS,是前一代Blackwell的5倍。

训练算力达35 PFLOPS,提升了3.5倍;

单机柜集成144颗GPU,推理成本将下降至前代的1/10。

3)100%全液冷。

采用45℃热水冷却。

过去两天才能安装的系统,现在2小时能搞定,冷却成本可以大幅降低65%。

4)互联革命。

第六代NVLink单GPU双向带宽3.6TB/s,单机柜总带宽突破260TB/s。

数据传输速度比上一代提升了1倍,能大幅改善集群算力的瓶颈。

根据天风国际郭明錤在2026年3月16日最新的供应链调查报告,Rubin平台预计2026年Q4大规模量产。

2026年机柜出货量预估约为300至500个,2027年则有望大幅跃升至15,000至20,000个,呈现爆发式成长。

英伟达计划将单一AI机柜中的LPU配置数量,由目前的64颗大幅提升至256颗,借此扩充存储器容量,同时维持超低延迟的推理效能表现。

新一代机柜将直接带动液冷、光模块等产业链数千亿级增量。

最大亮点:CPO共封装光学交换机。

这是本次演讲最值得关注,全球唯一实现量产,颠覆传统光模块行业的重磅技术。

技术原理是,把光模块直接集成在芯片上,电子信号直接转为光信号,无需传统插拔式光模块,功耗降低65%,带宽提升3倍。

随着Spectrum-6 SPX交换机全面量产,1.6T光模块配比从1:4降至1:1,光引擎单模组价值量将达30万元。

由于中国厂商占据全球70%+CPO光引擎份额,天孚通信等A股龙头将成为最大受益者之一。

根据行业报告,2026年CPO市场规模将突破100亿美元,2027年成为数据中心标配,光进铜退彻底落地。

另一个亮点:Groq LPU推理系统。

AI产业已经从“训练时代”进入“推理时代”,2025年全球AI推理芯片市场规模首次超越训练芯片,达680亿美元,占比52%。

预计2026年推理芯片市场将达1450亿美元,年增速超50%,远高于训练芯片的20%。

但传统GPU在推理解码阶段存在延迟高、能效低、成本高的痛点,而新一代Groq LPU技术完美解决了这个问题。

1)硬件配置。

8颗LP30 Groq芯片量产,单机架256个LPU处理器、128GB片上SRAM,扩展带宽640TB/s;

2)协同架构。

Vera Rubin负责模型预填充与主要计算,Groq LPU负责低延迟Token解码,推理速度提升5-10倍,首Token延迟低于0.1秒;

3)产能保障。

将由三星代工,2026年下半年发货,2026-2027年预计出货400-500万颗。

黄仁勋表示:推理是AI工厂最核心的工作负载,LPU的落地,将让英伟达彻底掌控训练+推理全链条。

另外,英伟达不仅做地面算力,还推出了太空数据中心专用Vera Rubin模组,谋求抢占星际算力赛道;

同时发布了Vera CPU,搭载88个定制Olympus核心,性能翻倍,合作伙伴包括Meta、甲骨文、阿里巴巴、字节跳动等全球科技巨头,实现算力生态无死角覆盖。

(三)软件生态。

英伟达本次软件生态升级,把行业从传统应用推向AI代理平台,构建了新的生态壁垒。

1)DLSS 5。

时隔8年,英伟达推出继实时光线追踪后最大的图形突破——DLSS 5。

通过实时神经渲染,实现电影级游戏画面,支持4K分辨率,2026年秋季上线,卡普空、网易、腾讯等全球游戏大厂全部支持。

游戏是英伟达的基本盘,DLSS 5将带动GeForce显卡销量上涨,游戏业务营收再创新高。

2)NemoClaw。

这是另一个全场关注的焦点。

NemoClaw是一站式AI智能体技术栈,整合Nemotron模型与OpenShell运行环境,企业无需专业技术,一键部署AI代理。

系统内置策略引擎、网络安全护栏、隐私路由器,确保AI代理安全运行,彻底降低企业AI落地门槛。

3)Nemotron联盟。

英伟达也宣布成立Nemotron联盟,联合Mistral AI等全球AI实验室,共同开发开放基础模型,共享数据、算力与研究成果。

首个项目由英伟达与Mistral联合训练,成为Nemotron 4开源模型核心,企业可自由定制。

黄仁勋强调,英伟达是全球开源模型最大贡献者之一,将以开放换垄断,让所有AI企业都离不开英伟达的生态。

4)开源智能体工具链。

英伟达还发布了开源智能体软件套件,支持企业构建自定义AI代理,推动软件行业从“传统应用”转向“AI代理平台”。

黄仁勋认为,未来所有企业软件都将被AI代理重构,知识工作效率将提升10倍,这是值得AI行业关注的巨大市场变革。

(四)应用落地。

算力最终要落地到应用,英伟达本次大会重点关注自动驾驶、机器人两大赛道:

1)自动驾驶的ChatGPT时刻。

黄仁勋高呼,“自动驾驶的ChatGPT时刻已至”。

他邀请了比亚迪、吉利、日产、现代,四大车企加盟英伟达的robotaxi ready平台。

根据行业报告,2025年中国自动驾驶芯片市场规模1200亿元,L4级单车芯片成本占比达32%。

英伟达一直很看好这个赛道,每年都迭代相关产品。

2)迪士尼机器人合作。

现场,《冰雪奇缘》雪宝机器人登台表演。

英伟达为其提供底层算力支持,传达出人形机器人、消费级机器人市场即将启动,成为AI算力新增长点的信号。

根据摩根士丹利的报告,2026年英伟达在全球AI处理器市场收入份额预计仍达85%。

即使因为无法进入中国市场,导致市场份额小幅下滑,但绝对营收依然在高速增长。

这带动了A股庞大的产业链增量:

1)光模块。

由于光模块需求爆发,2025年中际旭创的业绩增速高达108.81%,新易盛在231-248%之间。

但今年最大的看点,将转向CPO产品的爆发,产业链价值量向上游转移。

由于光模块进入CPO封装技术,行业预计这将推动单模组价值量提升3倍。

2)液冷。

Rubin平台液冷渗透率达60-70%,Rubin Ultra达90%+,液冷营收预计同比翻倍。

3)存储。

HBM4内存需求继续暴增,存储芯片行业预计保持量价齐升。