黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”
黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”
关于蚕食鲸吞网
ENGLISH
English
Español
Français
عربى
Русский язык
日本語
한국어
Deutsch
Português
新华报刊
新华每日电讯
经济参考
瞭望
半月谈
中证报
上证报
中国记者
中国名牌
中国传媒科技
环球
瞭望东方周刊
参考消息
新华出版社
财经国家周刊
地方频道
陕西
东方
南通
漳州
安徽
汕头
肇庆
襄樊
巴彦淖尔
安徽
娄底
宁波
无锡
宣城
六安
东营
衢州
许昌
襄樊
辽宁
连云港
吉安
青岛
宜昌
邯郸
崇左
延安
清远
沈阳
延安
承建网站
中国政府网
中国文明网
国家国际发展合作署
中国雄安官网
中国互联网联合辟谣平台
中国记协网
国家公祭网
科普中国
国家能源局网站
国家信访局网站
中国禁毒网
网站无障碍
客户端
手机版
站内搜索
网络举报专区
新华通讯社主办
公司官网
股票代码:
603888
学习进行时
高层
时政
人事
国际
财经
网评
港澳
台湾
思客智库
全球连线
教育
科技
科普
体育
文化
书画
健康
军事
访谈
视频
图片
政务
中央文件
金融
汽车
食品
人居生活
信息化
数字经济
学术中国
乡村振兴
溯源中国
城市
旅游
能源
会展
彩票
娱乐
时尚
悦读
公益
一带一路
亚太网
上市公司
文化产业
蚕食鲸吞网
>
> 正文
2026-04-19 11:18:27
来源:蚕食鲸吞网
黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”
字体:
小
中
大
分享到:
黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”
2026-04-19 11:18:27
来源:蚕食鲸吞网
\u003cdiv class=\"rich_media_content\"\u003e\u003c!--VIDEO_0--\u003e\u003cspan style=\"text-align: center;font-size: 13px;color: rgb(136, 136, 136); line-height: 14px;margin-bottom: 22px;margin-top: 8px; display: block;\"\u003e\u003c!--NO_READ_BEGIN--\u003e黄仁勋2026 CES演讲全程视频(AI字幕版)\u003c!--NO_READ_END--\u003e\u003c/span\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e文丨李海伦 苏扬\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e编辑丨徐青阳\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e北京时间1月6日,英伟达CEO黄仁勋身着标志性皮衣再次站在CES2026的主舞台上。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e2025年CES,英伟达展示了量产的Blackwell芯片和完整的物理AI技术栈。在会上,黄仁勋强调,一个“物理AI时代”正在开启。 他描绘了一个充满想象力的未来:自动驾驶汽车具备推理能力,机器人能够理解并思考,AI Agent(智能体)可以处理百万级 token 的长上下文任务。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e转眼一年过去,AI行业经历了巨大的变革演进。黄仁勋在发布会上回顾这一年的变化时,重点提到了开源模型。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e他说,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e像\u003c!--VERTICAL_CARD_BEGIN_0--\u003eDeepSeek R1\u003c!--VERTICAL_CARD_END_0--\u003e这样的开源推理模型,让整个行业意识到:当开放、全球协作真正启动后,AI 的扩散速度会极快\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。尽管开源模型在整体能力上仍比最前沿模型慢大约半年,但每隔六个月就会追近一次,而且下载量和使用量已经呈爆发式增长。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_0--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e相比2025年更多展示愿景与可能性,这一次英伟达开始系统性地希望解决“如何实现”的问题:\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e围绕推理型AI,补齐长期运行所需的算力、网络与存储基础设施,显著压低推理成本,并将这些能力直接嵌入自动驾驶和机器人等真实场景\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在本次黄仁勋在CES上的演讲,围绕三条主线展开:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在系统与基础设施层面,英伟达\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e围绕长期推理需求重构了算力、网络与存储架构\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。以 Rubin 平台、NVLink 6、Spectrum-X 以太网和推理上下文内存存储平台为核心,这些更新直指推理成本高、上下文难以持续和规模化受限等瓶颈,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e解决AI多想一会、算得起、跑得久的问题。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在模型层面,\u003c!--SECURE_LINK_BEGIN_0--\u003e英伟达\u003c!--SECURE_LINK_END_0--\u003e将\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理型 AI(Reasoning / Agentic AI)置于核心位置\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。通过Alpamayo、Nemotron、Cosmos Reason 等模型与工具,推动 AI 从“生成内容”迈向能够持续思考、从“一次性响应的模型”转向“可以长期工作的智能体”。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在应用与落地层面,这些\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e能力被直接引入自动驾驶和机器人等物理 AI 场景\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。无论是 Alpamayo 驱动的自动驾驶体系,还是 GR00T 与 Jetson 的机器人生态,都在通过云厂商和企业级平台合作,推动规模化部署。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_1--\u003e\u003c/div\u003e\u003ch2\u003e\u003c!--HPOS_0--\u003e\u003cspan style=\"font-size: 18px\"\u003e01 从路线图到量产:Rubin首次完整披露性能数据\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_0--\u003e在本次CES上,英伟达首次完整披露了Rubin架构的技术细节。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e演讲中,\u003c!--SECURE_LINK_BEGIN_1--\u003e黄仁勋\u003c!--SECURE_LINK_END_1--\u003e从\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eTest-time Scaling(推理时扩展)开始铺垫,\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e这个概念可以理解为,想要AI变聪明,不再只是让它“多努力读书”,而是靠“遇到问题时多想一会儿”。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e过去,AI 能力的提升主要靠训练阶段砸更多算力,把模型越做越大;而现在,新的变化是哪怕模型不再继续变大,只要在每次使用时给它多一点时间和算力去思考,结果也能明显变好。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e如何让“AI多思考一会儿”变得经济可行?Rubin架构的新一代AI计算平台就是来解决这个问题。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋介绍,这是一套完整的下一代AI计算系统,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e通过Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6的协同设计,以此实现推理成本的革命性下降。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_2--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达Rubin GPU 是 Rubin 架构中负责 AI 计算的核心芯片,目标是显著降低推理与训练的单位成本。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e说白了,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eRubin GPU 核心任务是“让 AI 用起来更省、更聪明”。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eRubin GPU 的核心能力在于:同一块 GPU 能干更多活。它一次能处理更多推理任务、记住更长的上下文,和其他 GPU 之间的沟通也更快,这意味着很多原本要靠“多卡硬堆”的场景,现在可以用更少的 GPU 完成。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e结果就是,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理不但更快了,而且明显更便宜。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋现场给大家复习了Rubin架构的NVL72硬件参数:包含220万亿\u003c!--SECURE_LINK_BEGIN_2--\u003e晶体管\u003c!--SECURE_LINK_END_2--\u003e,带宽260 TB/秒,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e是业界首个支持机架规模机密计算的平台。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_3--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e整体来看,相比 Blackwell,Rubin GPU 在关键指标上实现跨代跃升:\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVFP4 推理性能提升至 50 PFLOPS(5 倍)、训练性能提升至 35 PFLOPS(3.5 倍),HBM4 内存带宽提升至 22 TB/s(2.8 倍),单 GPU 的 NVLink 互连带宽翻倍至 3.6 TB/s。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这些提升共同作用,使单个 GPU 能处理更多推理任务与更长上下文,从根本上减少对 GPU 数量的依赖。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_4--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eVera CPU是专为数据移动和Agentic处理设计的核心组件,采用88个英伟达自研Olympus核心,配备1.5 TB系统内存(是上代Grace CPU的3倍),通过1.8 TB/s的NVLink-C2C技术实现CPU与GPU之间的一致性内存访问。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e与传统通用CPU不同,Vera专注于AI推理场景中的数据调度和多步骤推理逻辑处理,本质上是让“AI多想一会儿”得以高效运行的系统协调者。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink 6通过3.6 TB/s的带宽和网络内计算能力\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,让Rubin架构中的72个GPU能像一个超级GPU一样协同工作,这\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e是实现“推理成本降至1/7”的关键基础设施\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这样一来,AI 在推理时需要的数据和中间结果可以迅速在 GPU 之间流转,不用反复等待、拷贝或重算。\u003c/span\u003e\u003c/p\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_5--\u003e\u003c/div\u003e\u003cdiv data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_6--\u003e\u003c/div\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在 Rubin 架构中,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink-6 负责 GPU 内部协同计算,BlueField-4 负责上下文与数据调度,而 ConnectX-9 则承担系统对外的高速网络连接\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。它确保 Rubin 系统能够与其他机架、数据中心和云平台高效通信,是大规模训练和推理任务顺利运行的前提条件。\u003c/span\u003e\u003c/p\u003e\u003cp style=\"line-height: 1.3; margin: 3pt 0pt; text-align: justify\"\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_7--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e相比上一代架构,英伟达也给出具体直观的数据:相比 NVIDIA Blackwell 平台,可将推理阶段的 token 成本最高降低10倍,并将训练混合专家模型(MoE)所需的 GPU 数量减少至原来的1/4。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达官方表示,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e目前微软已承诺在下一代Fairwater AI超级工厂中部署数十万Vera Rubin芯片\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,CoreWeave等云服务商将在2026年下半年提供Rubin实例,这套“让AI多想一会儿”的基础设施正在从技术演示走向规模化商用。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp style=\"text-align: center\"\u003e\u003c!--IMG_8--\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_1--\u003e\u003cspan style=\"font-size: 18px\"\u003e02 “存储瓶颈”如何解决?\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_1--\u003e让AI“多想一会儿”还面临一个关键技术挑战:上下文数据该放在哪里?\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当AI处理需要多轮对话、多步推理的复杂任务时,会产生大量上下文数据(KV Cache)。传统架构要么把它们塞进昂贵且容量有限的GPU内存,要么放到普通存储里(访问太慢)。这个“存储瓶颈”如果不解决,再强的GPU也会被拖累。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e针对这个问题,英伟达在本次CES上首次完整披露了由BlueField-4驱动的\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e推理上下文内存存储平台(Inference Context Memory Storage Platform)\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e,核心目标是在GPU内存和传统存储之间创建一个“第三层”。既足够快,又有充足容量,还能支撑AI长期运行。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e从技术实现上看,这个平台并不是单一组件在发挥作用,而是一套协同设计的结果:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eBlueField-4 负责在硬件层面加速上下文数据的管理与访问,减少数据搬移和系统开销;\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eSpectrum-X 以太网提供高性能网络,支持基于 RDMA 的高速数据共享;\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eDOCA、NIXL和Dynamo等软件组件,则负责在系统层面优化调度、降低延迟、提升整体吞吐。\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e我们可以理解为,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这套平台的做法是,将原本只能放在GPU内存里的上下文数据,扩展到一个独立、高速、可共享的“记忆层”中。\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e一方面释放 GPU 的压力,另一方面又能在多个节点、多个 AI 智能体之间快速共享这些上下文信息。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在实际效果方面,英伟达官方给出的数据是:在特定场景下,这种方式可以让每秒处理的 token数提升最高达5倍,并实现同等水平的能效优化。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋在发布会中多次强调,AI 正在从“一次性对话的聊天机器人”,演进为真正的智能协作体:它们需要理解现实世界、持续推理、调用工具完成任务,并同时保留短期与长期记忆。这正是 Agentic AI 的核心特征。推理上下文内存存储平台,正是为这种长期运行、反复思考的 AI 形态而设计,通过扩大上下文容量、加快跨节点共享,让多轮对话和多智能体协作更加稳定,不再“越跑越慢”。\u003c/span\u003e\u003c!--MID_AD_0--\u003e\u003c!--EOP_0--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_0--\u003e\u003ch2\u003e\u003c!--HPOS_2--\u003e\u003cspan style=\"font-size: 18px\"\u003e03 推出新一代DGX SuperPOD :让576个GPU协同工作\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_2--\u003e英伟达在本次CES上宣布推出基于Rubin架构的新一代DGX SuperPOD(超节点),将Rubin从单机架扩展到整个数据中心的完整方案。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e什么是DGX SuperPOD?\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e如果说Rubin NVL72是一个装有72个GPU的“超级机架”,那么DGX SuperPOD就是把多个这样的机架连接起来,形成一个更大规模的AI计算集群。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这次发布的版本由8个Vera Rubin NVL72机架组成,相当于576个GPU协同工作。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当AI任务规模继续扩大时,单个机架的576个GPU可能还不够。比如训练超大规模模型、同时服务数千个Agentic AI智能体、或者处理需要数百万token上下文的复杂任务。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e这时就需要多个机架协同工作,而DGX SuperPOD就是为这种场景设计的标准化方案。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e对于企业和云服务商来说,DGX SuperPOD提供的是一个“开箱即用”的大规模AI基础设施方案。不需要自己研究如何把数百个GPU连接起来、如何配置网络、如何管理存储等问题。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e新一代DGX SuperPOD五大核心组件:\u003c/span\u003e\u003c/p\u003e\u003cul class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\" style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e8个Vera Rubin NVL72机架 - 提供计算能力的核心,每个机架72个GPU,总共576个GPU\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eNVLink 6扩展网络 - 让这8个机架内的576个GPU能像一个超大GPU一样协同工作\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eSpectrum-X以太网扩展网络 - 连接不同的SuperPOD,以及连接到存储和外部网络\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e推理上下文内存存储平台 - 为长时间推理任务提供共享的上下文数据存储\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达Mission Control软件 - 管理整个系统的调度、监控和优化\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_1--\u003e\u003c!--EOP_1--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_1--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这一次的升级,SuperPOD的基础以DGX Vera Rubin NVL72机架级系统为核心。每一台 NVL72本身就是一台完整的AI超级计算机,内部通过NVLink 6 将72块Rubin GPU 连接在一起,能够在一个机架内完成大规模推理和训练任务。\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e新的DGX SuperPOD,则由多台NVL72 组成,形成一个可以长期运行的系统级集群。\u003c/span\u003e\u003c/strong\u003e\u003c!--MID_AD_2--\u003e\u003c!--EOP_2--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_2--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e当计算规模从“单机架”扩展到“多机架”后,新的瓶颈随之出现:如何在机架之间稳定、高效地传输海量数据。围绕这一问题,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达在本次 CES 上同步发布了基于 Spectrum-6 芯片的新一代以太网交换机,并首次引入“共封装光学”(CPO)技术\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"font-size: 18px\"\u003e。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e简单来说,就是将原本可插拔的光模块直接封装在交换芯片旁边,把信号传输距离从几米缩短到几毫米,从而显著降低功耗和延迟,也提升了系统整体的稳定性。\u003c/span\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_3--\u003e\u003cspan style=\"font-size: 18px\"\u003e04 英伟达开源AI“全家桶”:从数据到代码一应俱全\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_3--\u003e在本次CES上,黄仁勋宣布扩展其开源模型生态(Open Model Universe),新增和更新了一系列模型、数据集、代码库和工具。这个生态覆盖六大领域:生物医学AI(Clara)、AI物理模拟(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、机器人(GR00T)和自动驾驶(Alpamayo)。\u003c/span\u003e\u003c!--MID_AD_3--\u003e\u003c!--EOP_3--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_3--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e训练一个AI模型需要的不只是算力,还需要高质量数据集、预训练模型、训练代码、评估工具等一整套基础设施。对大多数企业和研究机构来说,从零开始搭建这些太耗时间。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e具体来说,英伟达开源了六个层次的内容:算力平台(DGX、HGX等)、各领域的训练数据集、预训练的基础模型、推理和训练代码库、完整的训练流程脚本,以及端到端的解决方案模板。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eNemotron系列是此次更新的重点,覆盖了四个应用方向。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在推理方向,包括Nemotron 3 Nano、Nemotron 2 Nano VL等小型化推理模型,以及NeMo RL、NeMo Gym等强化学习训练工具。在RAG(检索增强生成)方向,提供了Nemotron Embed VL(向量嵌入模型)、Nemotron Rerank VL(重排序模型)、相关数据集和NeMo Retriever Library(检索库)。在安全方向,有Nemotron Content Safety内容安全模型及配套数据集、NeMo Guardrails护栏库。\u003c/span\u003e\u003c!--MID_AD_4--\u003e\u003c!--EOP_4--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_4--\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在语音方向,则包含Nemotron ASR自动语音识别、Granary Dataset语音数据集和NeMo Library语音处理库。这意味着企业想做一个带RAG的AI客服系统,不需要自己训练嵌入模型和重排序模型,可以直接使用英伟达已经训练好并开源的代码。\u003c/span\u003e\u003c/p\u003e\u003ch2\u003e\u003c!--HPOS_4--\u003e\u003cspan style=\"font-size: 18px\"\u003e05 物理AI领域,走向商业化落地\u003c/span\u003e\u003c/h2\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003c!--AIPOS_4--\u003e物理AI领域同样有模型更新——用于理解和生成物理世界视频的Cosmos,机器人通用基础模型Isaac GR00T、自动驾驶视觉-语言-行动模型Alpamayo。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_9--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋在CES上声称,物理AI的“ChatGPT时刻”快要来了,但面对挑战也很多:物理世界太复杂多变,采集真实数据又慢又贵,永远不够用。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e怎么办呢?合成数据是条路。于是英伟达推出了Cosmos。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e这是一个开源的物理AI世界基础模型,目前已经用海量视频、真实驾驶与机器人数据,以及3D模拟做过预训练。它能理解世界是怎么运行的,可以把语言、图像、3D和动作联系起来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋表示,Cosmos能实现不少物理AI技能,比如生成内容、做推理、预测轨迹(哪怕只给它一张图)。它可以依据3D场景生成逼真的视频,根据驾驶数据生成符合物理规律的运动,还能从模拟器、多摄像头画面或文字描述生成全景视频。就连罕见场景,也能还原出来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_10--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在演讲中,黄仁勋还正式发布了Alpamayo。Alpamayo是一个面向自动驾驶领域的开源工具链,也是首个开源的视觉-语言-行动(VLA)推理模型。与之前仅开源代码不同,\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"font-size: 18px\"\u003e英伟达这次开源了从数据到部署的完整开发资源。\u003c/span\u003e\u003c/strong\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eAlpamayo最大的突破在于它是“推理型”自动驾驶模型。传统自动驾驶系统是“感知-规划-控制”的流水线架构,看到红灯就刹车,看到行人就减速,遵循预设规则。而Alpamayo引入了“推理”能力,理解复杂场景中的因果关系,预测其他车辆和行人的意图,甚至能处理需要多步思考的决策。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e比如在十字路口,它不只是识别出“前方有车”,而是能推理“那辆车可能要左转,所以我应该等它先过”。这种能力让自动驾驶从“按规则行驶”升级到“像人一样思考”。 \u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋宣布英伟达DRIVE系统正式进入量产阶段,首个应用是全新的梅赛德斯-奔驰CLA,计划2026年在美国上路。这款车将搭载L2++级自动驾驶系统,采用“端到端AI模型+传统流水线”的混合架构。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e机器人领域同样有实质性进展。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e黄仁勋表示包括Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在内的全球机器人领军企业,正在基于英伟达Isaac平台和GR00T基础模型开发产品,覆盖了从工业机器人、手术机器人到人形机器人、消费级机器人的多个领域。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003c/p\u003e\u003cp data-exeditor-arbitrary-box=\"image-box\" style=\"text-align: center\"\u003e\u003c!--IMG_11--\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e在发布会现场,黄仁勋背后站满了不同形态、不同用途的机器人,它们被集中展示在分层舞台上:从人形机器人、双足与轮式服务机器人,到工业机械臂、工程机械、无人机与手术辅助设备,展现出一幅“机器人生态图景”。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e从物理AI应用到RubinAI计算平台,再到推理上下文内存存储平台和开源AI“全家桶”。英伟达在CES上展示的这些动作,构成了英伟达对于推理时代AI基础设施的叙事。正如黄仁勋反复强调的那样,当物理 AI 需要持续思考、长期运行,并真正进入现实世界,问题已经不再只是算力够不够,而是谁能把整套系统真正搭起来。\u003c/span\u003e\u003c/p\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003eCES 2026 上,英伟达已经给出了一份答卷。\u003c/span\u003e\u003c/p\u003e\u003cdiv powered-by=\"qqnews_ex-editor\"\u003e\u003c/div\u003e\u003cstyle\u003e.rich_media_content{--news-tabel-th-night-color: #444444;--news-font-day-color: #333;--news-font-night-color: #d9d9d9;--news-bottom-distance: 22px}.rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.rich_media_content{color:var(--news-font-day-color);font-size:18px}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]):not(.qn-editor-copy){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content{color:var(--news-font-night-color)}}.data_color_scheme_dark .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.data_color_scheme_dark .rich_media_content .qn-editor-copy p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:unset;line-height:unset;margin-bottom:unset;word-wrap:unset}.data_color_scheme_dark .rich_media_content{color:var(--news-font-night-color)}.data_color_scheme_dark .rich_media_content{font-size:18px}.rich_media_content p[data-exeditor-arbitrary-box=image-box]{margin-bottom:11px}.rich_media_content\u003ediv:not(.qnt-video),.rich_media_content\u003esection{margin-bottom:var(--news-bottom-distance)}.rich_media_content hr{margin-bottom:var(--news-bottom-distance)}.rich_media_content .link_list{margin:0;margin-top:20px;min-height:0!important}.rich_media_content blockquote{background:#f9f9f9;border-left:6px solid #ccc;margin:1.5em 10px;padding:.5em 10px}.rich_media_content blockquote p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content blockquote{background:#323232}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content blockquote{background:#323232}}.rich_media_content ol[data-ex-list]{--ol-start: 1;--ol-list-style-type: decimal;list-style-type:none;counter-reset:olCounter calc(var(--ol-start,1) - 1);position:relative}.rich_media_content ol[data-ex-list]\u003eli\u003e:first-child::before{content:counter(olCounter,var(--ol-list-style-type)) '. ';counter-increment:olCounter;font-variant-numeric:tabular-nums;display:inline-block}.rich_media_content ul[data-ex-list]{--ul-list-style-type: circle;list-style-type:none;position:relative}.rich_media_content ul[data-ex-list].nonUnicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.5)}.rich_media_content ul[data-ex-list].unicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.8)}.rich_media_content ol:not([data-ex-list]){padding-left:revert}.rich_media_content ul:not([data-ex-list]){padding-left:revert}.rich_media_content table{display:table;border-collapse:collapse;margin-bottom:var(--news-bottom-distance)}.rich_media_content table th,.rich_media_content table td{word-wrap:break-word;border:1px solid #ddd;white-space:nowrap;padding:2px 5px}.rich_media_content table th{font-weight:700;background-color:#f0f0f0;text-align:left}.rich_media_content table p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content table th{background:var(--news-tabel-th-night-color)}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content table th{background:var(--news-tabel-th-night-color)}}.rich_media_content .qqnews_image_desc,.rich_media_content p[type=om-image-desc]{line-height:20px!important;text-align:center!important;font-size:14px!important;color:#666!important}.rich_media_content div[data-exeditor-arbitrary-box=wrap]:not([data-exeditor-arbitrary-box-special-style]){max-width:100%}.rich_media_content .qqnews-content{--wmfont: 0;--wmcolor: transparent;font-size:var(--wmfont);color:var(--wmcolor);line-height:var(--wmfont)!important;margin-bottom:var(--wmfont)!important}.rich_media_content .qqnews_sign_emphasis{background:#f7f7f7}.rich_media_content .qqnews_sign_emphasis ol{word-wrap:break-word;border:none;color:#5c5c5c;line-height:28px;list-style:none;margin:14px 0 6px;padding:16px 15px 4px}.rich_media_content .qqnews_sign_emphasis p{margin-bottom:12px!important}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{padding-left:30px}.rich_media_content .qqnews_sign_emphasis ol\u003eli{list-style:none}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep:first-child::before{margin-left:-30px;content:counter(olCounter,decimal) ''!important;counter-increment:olCounter!important;font-variant-numeric:tabular-nums!important;background:#37f;border-radius:2px;color:#fff;font-size:15px;font-style:normal;text-align:center;line-height:18px;width:18px;height:18px;margin-right:12px;position:relative;top:-1px}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis{background:#262626}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis{background:#262626}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}}.rich_media_content h1,.rich_media_content h2,.rich_media_content h3,.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{margin-bottom:var(--news-bottom-distance);font-weight:700}.rich_media_content h1{font-size:20px}.rich_media_content h2,.rich_media_content h3{font-size:19px}.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{font-size:18px}.rich_media_content li:empty{display:none}.rich_media_content ul,.rich_media_content ol{margin-bottom:var(--news-bottom-distance)}.rich_media_content div\u003ep:only-child{margin-bottom:0!important}.rich_media_content .cms-cke-widget-title-wrap p{margin-bottom:0!important}\u003c/style\u003e\u003c/div\u003e
【纠错】
【责任编辑:吧友_6IP1DC7ZT】
阅读下一篇:
深度观察
新华全媒头条丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
新华全媒头条丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
新华全媒头条丨
中国书法的审美价值与文化内涵
新华全媒头条丨
王田苗谈具身智能初创企业核心命题:技术落地需从场景入手
新华全媒头条丨
还能战!34岁坎特国家队送助攻数据完美,加盟沙特2年身价剩500万
新华全媒头条丨
中国书法的审美价值与文化内涵
新华全媒头条丨
王田苗谈具身智能初创企业核心命题:技术落地需从场景入手
黄仁勋CES2026最新演讲:三个关键话题,一台“芯片怪兽”