首页 > 知识技巧 > 知识技巧 > 黄仁勋GTC最新演讲:5000亿目标、10倍性能与AI工厂(两万字完整实录)第二版

黄仁勋GTC最新演讲:5000亿目标、10倍性能与AI工厂(两万字完整实录)第二版

发布时间:2025-10-30 22:37:48

英伟达在此次GTC上交付了一套完整的AI工业革命基础设施。从Grace BlackwellGB200到到NVLink-72全互联机架,再到Omniverse DSX数字孪生工厂,英伟达的战略核心是:通过“极致协同设计”(Extreme Co-Design)来打破物理定律的限制,将AI推理(Inference)这个新的计算核心成本降至最低,从而持续驱动AI工业发展的良性循环。

你可以构建在理解层面具有空间特性、针对空间感知能力进行了优化的模型。你可以拥有针对长序列进行优化、在较长时间内识别微妙信息的模型。有如此多不同类型的模型。在这些模型之上,还有构建在这些模型架构之上的架构——这些就是应用程序。

过去的软件产业致力于创造工具。Excel是一个工具,Word是一款工具,网页浏览器是一种工具。我之所以知道这些是工具,是因为你使用它们。工具行业,正如螺丝刀和锤子,其规模有限。就IT工具而言,它们可以是数据库工具,这些IT工具的价值约为一万亿美元左右。

AI并非工具,AI是工作,这就是本质上的区别。AI实际上就是能够真正使用工具的劳动者。我特别兴奋的一件事,就是欧文在Perplexity公司开展的工作。Perplexity使用网页浏览器预订假期或购物,本质上就是一个使用工具的AI。Cursor是一款AI系统,是我们在英伟达使用的具有自主决策能力的AI系统。英伟达的每位软件工程师都在使用Cursor,它极大地提高了我们的生产效率。它基本上是每位软件工程师的代码生成助手,并且它使用了一个工具,它使用的工具名为VSCode。因此,Cursor 是一个基于VSCode的智能代理式AI系统。

所有这些不同的行业,无论是聊天机器人、数字生物学、AI助手研究员,还有在自动驾驶出租车内,当然,AI司机是无形的。但显然有一个AI司机在工作,而他完成这项工作的工具就是汽车。因此,我们迄今为止所创造的一切,整个世界,我们迄今为止创造的一切,都是工具,供我们使用的工具。技术如今首次能够承担工作,并帮助我们提高生产力。机遇清单源源不断,这正是AI能够触及IT从未涉足的经济领域的原因。

IT是支撑着100万亿美元全球经济的工具之下,蕴藏着数万亿美元价值的基石。如今,AI将首次参与这100万亿美元的经济体,并提升其生产力,让它增长得更快,变得更大。我们面临严重的劳动力短缺问题,拥有能够增强劳动力的AI将助力我们实现增长。

从科技产业的角度来看,这点同样耐人寻味:除了AI作为新兴技术正在开拓经济新领域之外,AI本身也是一种新兴产业。正如我先前所解释的,这个tokens,这些数字,在你将所有不同模态的信息进行分词处理之后,有一家工厂需要生产这些数字。

与过去的计算机行业和芯片行业不同,如果你回顾过去的芯片行业,芯片行业约占数万亿美元IT 产业的5%至10%,可能更少。原因在于,使用Excel、使用浏览器、使用Word并不需要太多的计算量。我们进行计算,但在这个新世界里,需要一台始终理解上下文的计算机。它无法预先计算出结果,因为每次你用电脑进行AI操作时,每次你让AI做某事时,上下文都不同,因此它必须处理所有这些信息。

例如自动驾驶汽车的情况,它必须处理车辆的上下文信息,进行上下文处理。你要求AI执行什么指令?然后它必须一步一步地分解问题,思考此事,制定计划并付诸实施。该步骤中的每个操作都需要生成大量tokens。这就是为什么我们需要一种新型系统的原因,我称之为AI工厂。这绝对是个AI工厂。

它与过去的数据中心截然不同。这是一座AI工厂,因为这座工厂只生产一种东西。不同于过去包揽一切的数据中心——为我们所有人存储文件,运行各种不同的应用程序,你可以像使用电脑一样使用该数据中心,运行各种应用程序,你某天可以用它来玩游戏,可以用它来浏览网页,可以用它来做账。因此,那是一台属于过去的计算机,一台通用计算机。

我在此所说的计算机是一座工厂,它基本上只运行一件事。它运行AI,其目的在于生成价值最大化的tokens这意味着他们必须聪明。而你希望以惊人的速度生成这些tokens,因为当你向AI提出请求时,你希望它做出回应。请注意,在高峰时段,这些AI的响应速度正变得越来越慢,因为它要为很多人做很多工作。因此你希望它能以惊人的速度生成有价值的tokens,而你希望它能以经济高效的方式实现。我使用的每个词都符合AI工厂的特征,与汽车厂或任何工厂一样。这绝对是工厂,而且这些工厂以前从未存在过。而这些工厂里堆积着成山的芯片。

这便引出了今天。过去几年发生了什么?事实上,去年发生了什么?其实今年确实发生了一件相当深刻的事情。若你回顾年初,每个人对AI都有自己的看法。这种态度通常是:这会是个大事件,那将是未来。而几个月前,不知怎么的,它启动了涡轮增压。

原因有以下几点。第一点是,在过去的几年里,我们已经摸清了如何让AI变得聪明得多。与其说只是预训练,不如说预训练本质上表明:让我们把人类创造过的所有信息都拿出来,让我们把它交给AI来学习吧,本质上就是记忆和概括。这就像我们小时候上学一样,学习的第一阶段。预训练从来就不是终点,正如学前教育也从来不是教育的终点。

学前教育,本质上就是培养你掌握智力发展的基础技能,让你懂得如何学习其他一切知识。没有词汇量,不理解语言及其表达方式,如何思考,这是无法学到其他一切的。接下来是培训后阶段。培训之后,在培训之前,是传授你解决问题的技能,分解问题,思考它,如何解决数学问题,如何编写代码,如何逐步思考这些问题,运用第一性原理推理。而之后才是计算真正发挥作用的阶段。

众所周知,对我们许多人来说,我们去上学了,就我而言,那是几十年前的事了。但自那以后,我学到了更多,思考得也更深了。而原因在于我们始终在不断汲取新知识来充实自己。我们不断进行研究,也持续思考。思考才是智力的真正本质。

因此,我们现在拥有三项基础技术能力。我们拥有这三项技术:预训练,仍需投入巨大资源,海量的计算量。我们现在有后训练,它使用了更多的计算资源。而如今,思考给基础设施带来了难以置信的计算负荷,因为它在为我们每个人代劳思考。因此,AI进行思考所需的计算量,这种推论,实在相当非凡。

以前我常听人说推理很容易,英伟达应该进行培训。NVIDIA要搞的,你知道的,他们在这方面真的很厉害,所以他们要进行培训,这个推论很简单。但思考怎么可能容易?背诵记忆的内容很容易,背诵乘法表很容易。思考是艰难的,这正是这三把尺子的缘由。这三条新的标度律,即全部内容都在其中全速运转,给计算量带来了巨大压力。

现在又发生了另一件事。从这三条标度律中,我们获得了更智能的模型。而这些更智能的模型需要更强的计算能力。但当你获得更智能的模型时,你便获得了更高的智能水平,人们使用它。你的模型越聪明,使用的人越多。现在它更接地气了,它能够进行推理。它能够解决以前从未学过如何解决的问题,因为它能做研究,去了解它,回来拆解它,思考如何解决你的问题,如何回答你的问题,然后去解决它。思考的深度正使模型变得更智能。它越智能,使用的人就越多。它越智能,就需要进行越多的计算。

但事情是这样的。过去一年,AI行业迎来了转折点。这意味着AI模型如今已足够智能,他们正在创造价值,他们值得为此付费。NVIDIA为每份Cursor许可证付费,我们乐意如此。我们乐意为之,因为Cursor正助力身价数十万美元的软件工程师或AI研究员实现多重价值,效率高出许多倍。当然,我们非常乐意为您效劳。这些AI模型已经足够优秀,值得为此付费。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名单还在继续。当然,OpenAI,当然,Claude。这些模型如今如此出色,人们为此付费。

而且因为人们正在为此付费并使用得更多,每次他们使用更多时,你需要更多计算能力。我们现在有两个指数函数。这两个指数,其中一个是三阶缩放定律中的指数计算需求。第二个指数函数是,模型越聪明,使用的人越多,使用的人越多,它需要的计算量就越大。

两个指数级增长的趋势正对全球计算资源施加压力,而就在不久前我才告诉过你们,摩尔定律已基本终结。那么问题来了,我们该怎么办?如果我们有这两项指数级增长的需求,如果我们找不到降低成本的方法,那么这个正反馈系统,这个本质上称为良性循环的循环反馈系统——对几乎所有行业都至关重要,对任何平台型行业都至关重要——就可能无法持续。

这对英伟达至关重要。我们现已进入CUDA的虚拟周期。应用程序越多,人们创建的应用程序越多,CUDA就越有价值。CUDA越有价值,购买的CUDA计算机就越多。购买的CUDA并行计算机越多,越来越多的开发者希望为其创建应用程序。经过三十年的发展,英伟达终于实现了这一虚拟循环。十五年后,我们终于在AI领域实现了这一目标。AI现已进入虚拟循环阶段。

因此你用得越多,因为AI很聪明,而我们为此付费,产生的利润就越多。产生的利润越多,投入的计算资源就越多。在电网中,投入到AI工厂的计算资源越多,计算能力越强,AI变得越来越聪明。越聪明,使用它的人越多,使用它的应用程序就越多,我们能解决的问题就越多。

这个虚拟循环正在运转。我们需要做的是大幅降低成本。因此,其一,用户体验得以提升,当你向AI发出指令时,它会更快地作出响应。其二,通过降低其成本来维持这个虚拟循环的运转,以便它能变得更智能,以便更多人会使用它,诸如此类。那个虚拟循环正在运转。

但当摩尔定律真的达到极限时,我们该如何突破呢?答案就是极致协同设计。你不能仅仅设计芯片,就指望在芯片上运行的东西会变得更快。在芯片设计中,你所能做的最好就是添加——我不知道,每隔几年晶体管数量就会增加50%。如果你再增加更多晶体管的话……你知道吗,我们可以拥有更多的晶体管,台积电是一家了不起的公司,我们只会继续增加更多晶体管。

然而,这些都是百分比,而非指数增长。我们需要复合指数增长来维持这个虚拟循环的运转。我们称之为极致协同设计。

4、从数据中心到“AI工厂”的进化

英伟达是当今世界上唯一一家能够真正从一张白纸开始,构思全新基础架构的公司,包括计算机架构、新型芯片、新型系统、新型软件、新型架构、新型应用程序,同时兼顾。在座的许多人之所以在此,是因为你们都是那层结构的不同组成部分,在与NVIDIA合作时,是该堆栈的不同部分。我们从根本上重新构建了所有架构。

然后,由于AI是一个如此庞大的问题,我们扩大规模。我们打造了一台完整的计算机,这是首台能够扩展至整机架规模的计算机。这台计算机配备单张GPU,随后我们通过发明名为Spectrum-X的新型AI以太网技术实现横向扩展。

人人都说以太网就是以太网。但以太网根本算不上以太网。Spectrum-X以太网专为AI性能而设计,这正是它如此成功的原因。即便如此,那也不够大。我们将用AI超级计算机和GPU 填满整个房间。这仍然不够大,因为AI的应用数量和用户数量正在持续呈指数级增长。

我们将多个这样的数据中心相互连接起来,我们称之为Spectrum-XGS的规模——Giga Scale X-Spectrum。通过这样做,我们在如此巨大的层面上进行协同设计,达到如此极致的程度,其性能提升令人震惊,并非每代提升50%或25%,但远不止于此。

这是我们迄今为止打造的最极致的协同设计计算机,坦率地说,是现代制造的。自IBM System/360 以来,我认为还没有哪台计算机像这样被彻底重新设计过。这个系统的创建过程极其艰难。

我马上让你见识它的妙处。但本质上我们所做的,好吧,这有点像美国队长的盾牌。所以NVLink72,如果我们要制造一枚巨型芯片,一块巨型 GPU,它看起来会是这样。这就是我们必须进行的晶圆级加工的程度,太不可思议了。

所有这些芯片现在都被装入一个巨大的机架中。是我干的还是别人干的?放入那个巨大的架子…… 你知道吗,有时候我觉得自己并不孤单。仅凭这组巨型支架,便使所有芯片协同运作,浑然一体。这简直令人难以置信,我这就向你展示其中的好处。情况是这样的。所以…… 谢谢,珍妮。我——我喜欢这个。嗯。好的。女士们、先生们,贾妮娜·保罗。哇!明白了。在未来……

接下来,我就像雷神那样去干。就像你在家里,却够不到遥控器,你只要这样做,就会有人把它送给你。就是这样。嗯。如果你看一下列表。这种事从不会发生在我身上,我只是在做梦罢了。

看起来你实际能基准测试的GPU 列表大约有 90% 是 NVIDIA。好吧,所以不管怎样,我们基本上…… 但是。这是 NVLink 8。如今,这些模型如此庞大,我们的解决方式是将模型将这个庞然大物拆解成众多专家。这有点像一个团队。因此,这些专家擅长处理特定类型的问题。我们召集了一大批专家。

因此,这个价值数万亿美元的巨型AI 模型汇聚了众多不同领域的专家。我们将所有这些不同领域的专家都集中到一个 GPU 上。现在,这是 NVLink 72。我们可以把所有芯片都集成到一块巨型晶圆上,每位专家都能相互交流。因此,这位首席专家能够与所有在岗的专家进行交流,以及所有必要的上下文、提示和我们必须处理的大量数据,一堆tokens,我们必须发送给所有专家。专家们会…… 无论哪位专家被选中解答问题,都会随即尝试作出回应。

然后它就会开始逐层逐层地执行这个操作,有时八人,有时十六人,有时这些专家有时是64,有时是 256。但关键在于,专家的数量正越来越多。嗯,这里,NVLink 72,我们拥有 72 个 GPU。正因如此,我们才能将四位专家整合到单个 GPU 中。

你需要为每块GPU 做的最重要的事就是生成tokens,即您在HBM 内存中拥有的带宽数量。我们拥有一台 H 系列 GPU,为四位专家提供计算支持。与这里不同,因为每台计算机最多只能安装八个 GPU,我们必须将 32 位专家整合到单个 GPU 中。因此这块 GPU 需要为 32 位专家进行思考,相比之下,该系统中每块 GPU 只需处理四项任务。正因如此,速度差异才如此惊人。

这刚发布。这是由SemiAnalysis 完成的基准测试。他们干得非常、非常彻底。他们对所有可进行基准测试的 GPU 进行了基准测试。全球各地的供应链都在制造它,因此我们现在可以向所有这些地区交付这种新架构,从而使资本支出投资于这些设备,这些计算机能够提供最佳的总体拥有成本。

现在在这之下,有两件事正在发生。所以当你看这个时,实际上是相当非同寻常的。无论如何,这相当非同寻常。现在同时发生着两次平台转变。

记住,如我之前跟你提到的,加速计算用于数据处理、图像处理、计算机图形学。它确实执行各种计算。它运行SQL,运行 Spark,它运行…… 你知道,你让它,你告诉我们你需要运行什么,这可是件大事。它说我们现在可以更快地做出回应,但这才是更重大的事。

因此在下面层面,不管是否有AI,世界正从通用计算转向加速计算。不管是否有 AI。事实上,许多 CSP 早已提供在 AI 出现之前就存在的服务。记住,它们是在机器学习时代被发明的,像 XGBoost 这样的经典机器学习算法,像用于推荐系统的数据框,协同过滤,内容过滤。所有这些技术都诞生于通用计算的早期时代。

即便是那些算法,即便是那些架构,如今在加速计算的加持下也变得更加强大。因此,即使没有AI,全球云服务提供商也将投资于加速技术。NVIDIA 的 GPU 是唯一能同时实现上述所有功能并支持 AI 的 GPU。专用集成电路或许能够实现AI,但它无法完成其他任何任务。

NVIDIA完全能够做到这一切,这也解释了为什么完全采用 NVIDIA 架构是如此稳妥的选择。我们现已进入良性循环,抵达了转折点,这实在非同寻常。

我在这间会议室里有许多合作伙伴,而你们所有人都是我们供应链的重要组成部分。我知道你们大家工作多么努力。我想感谢你们所有人,你们工作多么努力。非常感谢。

现在我将向你展示原因。这就是我们公司业务的现状。正如我刚才提到的所有原因,我们看到Grace Blackwell正呈现出非凡的增长态势。它由两个指数函数驱动。我们现在已掌握情况。

我认为在Blackwell以及Rubin早期增长态势上,2026年我们很可能是历史上首家能够看到5000亿美元业务规模的公司。正如你所知,2025 年尚未结束,2026 年也尚未开始。这就是账面上的业务量,迄今为止已达半万亿美元。

在这些产品中,我们已在前几个季度售出了六百万台Blackwell 设备。我猜生产的前四个季度,四分之三的产量。2025 年还有一个季度要走。然后我们有四个季度。因此未来五个季度,将有 5000 亿美元。这相当于Hopper增长率的五倍,这多少说明了些什么。

这就是Hopper的全部人生。这不包括中国和亚洲。所以这只是西方市场。Hopper,在其全部生命周期中,四百万块 GPU。Blackwell,每个 Blackwell 在一个大封装中包含两块 GPU。在 Rubin 的早期阶段有 2000 万块 Blackwell GPU。令人难以置信的增长。

因此,我要感谢我们所有的供应链合作伙伴。大家。我知道你们工作多么辛苦。我制作了一段视频来庆祝你的工作。我们来玩吧。

(视频内容)

极致版Blackwell GB200Nv 与Grace Blackwell NVLink 72 的协同设计,使我们实现了十倍代际性能提升。简直难以置信。现在,真正令人难以置信的部分是这个。这是我们制造的第一台AI超级计算机。这是2016 年,我将其交付给旧金山的一家初创公司,结果发现是 OpenAI。这就是那台电脑。

为了制造那台计算机,我们设计了一枚芯片。我们设计了一款新芯片。为了我们现在能够进行协同设计,看看我们得处理的这么多芯片。这就是需要的。你不可能拿一块芯片就让计算机速度提升十倍,那不可能发生。

使计算机速度提升十倍的方法在于我们能够持续实现性能的指数级增长。我们能够以指数级持续压低成本的方法,是极端协同设计以及同时在所有这些不同芯片上并行工作。我们现在把Rubin 接回家了。这是 Rubin。

这是我们的第三代NVLink 72 机架级计算机。第三代。GB200 是第一代。遍布全球的所有合作伙伴们,我知道你们付出了多么艰辛的努力。这真的是极其艰难。第二代,顺滑得多。而这一代,看这个,完全无线缆。完全无线缆。而这一切现在又回到了实验室。

这是下一代,Rubin。在我们发货GB300 的同时,我们正在准备让 Rubin 进入量产。你知道的,就在明年的这个时候,也许会稍微早一点。因此,每一年,我们都会提出最激进的协同设计系统,以便不断提高性能并持续降低tokens生成成本。

看看这个。这是一台令人难以置信的漂亮计算机。这是100 PetaFLOPS。我知道这没有任何意义。100 PetaFLOPS。但与我十年前交付给 OpenAI 的 DGX-1 相比,性能提升了 100 倍。就在这里。与那台超级计算机相比是 100 倍。一百台那种的,来算算看,一百台那种大概相当于 25 个这样的机架,都被这一样东西替代了。一个维拉·鲁宾。

所以,这是计算托盘。所以这是Vera Rubin 超级芯片。可以吗?这是计算托盘。就在这里,上方。安装起来非常容易。只需把这些东西掀开,塞进去。就连我也能做到。这是 Vera Rubin 计算托盘。

如果你决定要添加一个特殊处理器,我们添加了另一个处理器,称为上下文处理器,因为我们提供给AI 的上下文量越来越大。我们希望它在回答问题之前先读取大量 PDF,希望它能读取大量归档论文,观看大量视频,在回答我的问题之前先去学习所有这些内容。所有这些上下文处理都可以被添加进去。

因此您可以看到底部有八个ConnectX-9 新型 SuperNIC 网卡。你有八个。您拥有 BlueField-4,这款新型数据处理器,两个 Vera 处理器,以及四个 Rubin 软件包,或八个 Rubin GPU。这一切都集中在这个节点上。完全无线,100% 液冷。

至于这款新处理器,今天我就不多说了。我时间不够,但这完全是革命性的。而原因在于,你们的AI 需要越来越多的内存。你与它的互动更频繁了,你希望它能记住我们上次的对话。你为我所学的一切,等我下次回来时,请千万别忘记。

因此,所有这些记忆将共同构筑出名为KV 缓存的东西。而 KV 缓存,检索它时,你可能已经注意到,每次你进入你的会话,你们现在的 AI 刷新和检索所有历史对话的时间越来越长了。而且原因在于我们需要一款革命性的新处理器。这被称为 BlueField-4。

接下来是NVLink交换机。这正是使我们能够将所有计算机连接在一起的关键所在。而这个交换机的带宽现已达到全球互联网峰值流量的数倍。因此,该主干将同时向所有 GPU 传递并传输所有数据。

除此之外,这是Spectrum-X 开关。这款以太网交换机的设计使得所有处理器能够同时相互通信,而不会造成网络拥塞。堵塞网络,这很技术性。可以吗?所以这三者结合起来。然后这就是量子开关。这是 InfiniBand,这是以太网。我们不在乎你想用什么语言,无论您采用何种标准,我们都为您准备了卓越的横向扩展架构。

无论是InfiniBand、Quantum 还是 Spectrum 以太网,这款采用硅光子技术,并提供完全共封装的选项。基本上,激光会直接接触硅片,并将它与我们的芯片连接起来。可以吗?这就是 Spectrum-X 以太网。哦,这就是它的样子。这是一个机架。这是两吨。150万个部件和这根脊柱,这根脊柱在一秒钟内承载着整个互联网的流量。相同的速度,能在所有这些不同的处理器之间迁移。100%液冷。所有这一切,都是为了世界上最快的tokens生成速度。可以吗?所以那就是机架的样子。

现在,那是一个机架。一个千兆瓦级的数据中心会有,来算算,16个机架大约是姑且叫它 9,000,8,000 个这样的将是一个一千兆瓦的数据中心。所以那将是未来的 AI 工厂。

如你所见,NVIDIA起初是设计芯片,随后我们开始设计系统,并且我们设计 AI 超级计算机。现在我们正在设计完整的 AI 工厂。每次我们将更多问题整合进来进行解决时,我们都会想出更好的解决方案。我们现在构建完整的AI工厂。

这个AI工厂将会是…… 我们为 Vera Rubin 构建的东西。我们创造了一项技术,使我们所有的合作伙伴都能够以数字化方式集成到这个工厂中。让我向你展示。

(视频内容)

完全、完全是数字化的。在Vera Rubin 作为真实计算机出现之前很久很久,我们已经把它作为数字孪生计算机来使用。很久在这些 AI 工厂出现之前,我们就会使用它,我们会设计它,我们会规划它、优化它,并以数字孪生的方式来运行它。

因此,所有与我们合作的合作伙伴,我非常高兴你们所有支持我们的人。Gio在这里,G Ver... Vernova在这里,Schneider。我想,Olivier在这里,Olivier Blum在这里。西门子,令人难以置信的合作伙伴。好的。罗兰·布什,我想他在看。嗨,罗兰。总之,真的,非常非常棒的合作伙伴与我们一起工作。

起初,我们有CUDA,以及各种不同的软件合作伙伴生态系统。现在,我们有Omniverse DSX,并且正在构建AI工厂。同样地,我们也有这些与我们合作的令人惊叹的合作伙伴生态系统。

让我们来谈谈模型,特别是开源模型。在过去几年里,发生了几件事。一是开源模型因为具备推理能力而变得非常强大;它们之所以非常强大,是因为它们是多模态的,并且由于蒸馏技术,它们的效率非常高。因此,所有这些不同的功能已经使开源模型首次对开发人员极其有用。它们现在是初创公司的命脉。显然,这些初创公司的生存命脉在不同的行业中各不相同,正如我之前提到的,每个行业都有其自身的用例、其自身的数据、自己的已用数据,自己的飞轮。所有这些能力,那些领域专长需要能够嵌入到模型中,开源使这成为可能。研究人员需要开源,开发者需要开源,世界各地的公司,我们需要开源。开源模型真的非常非常重要。

美国也必须在开源方面处于领先地位。我们拥有极其出色的专有模型,我们拥有令人惊艳的专有模型,我们同样需要令人惊艳的开源模型。我们的国家依赖它,我们的初创公司依赖它,因此NVIDIA致力于去实现这一目标。我们现在是最大的,我们在开源贡献方面处于领先地位。我们在排行榜上有23个模型。我们拥有来自不同领域的这些语言模型,我将要讨论的物理AI模型、机器人模型到生物学模型。每一个这些模型都有庞大的团队,这也是我们为自己构建超级计算机以支持所有这些模型创建的原因之一。我们拥有第一的语音模型、第一的推理模型、第一的物理AI模型,下载量非常非常可观。我们致力于此,原因在于科学需要它,研究人员需要它,初创公司需要它,企业也需要它。

我很高兴AI初创公司以NVIDIA为基础构建。他们这样做有好几种原因。首先,当然我们的生态系统很丰富,我们的工具运行得非常好。我们所有的工具都能在我们所有的GPU上运行,我们的GPU无处不在。它实际上存在于每一个云中,它可以在本地部署,你可以自己构建。你可以自己搭建一个发烧友级别的游戏电脑,里面装多块GPU,然后你可以下载我们的软件栈,它就是能用。我们有大量开发者在不断丰富生态系统,使其越来越强大。所以我对我们合作的所有初创公司感到非常满意,我对此心存感激。

同样,许多这些初创公司现在也开始创造更多方式来利用我们的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。这些公司正在建立这些新的GPU云来为初创公司服务,我非常感激这一点。这一切之所以成为可能,是因为NVIDIA无处不在。

我们将我们的库整合在一起,所有我刚才跟你提到的CUDA X库、我提到的所有开源AI模型、我提到的所有模型,例如,我们已经集成到AWS中。真的很喜欢和Matt共事。例如,我们已与Google Cloud集成。真的很喜欢和Thomas共事。每一个云都集成了NVIDIA GPUs和我们的计算、我们的库,以及我们的模型。很喜欢与微软Azure的Satya一起合作,很喜欢与Oracle的Clay一起合作。每一个这些云都集成了NVIDIA堆栈。因此,不论你去哪里,无论你使用哪个云端,它的工作效果令人难以置信。

我们还将NVIDIA的库集成到全球的SaaS中,以便这些SaaS最终都能成为具代理能力的SaaS。我喜欢Bill McDermott对ServiceNow的愿景。那里有人,对,就这样。我想那可能是Bill。嗨,Bill。那么ServiceNow是什么?全球85%的企业级工作负载、工作流。SAP,全球80%的商业交易。Christian Klein和我正在合作将NVIDIA库集成起来,将CUDA X、NeMo和NeMotron,以及我们所有的AI系统集成到SAP中。

与Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可扩展,帮助他们创建AI代理。有朝一日,我很想雇佣一个AI代理ASIC设计师来与我们的ASIC设计师合作,从本质上来说,就是Synopsys的AI代理。我们正在与Anirudh一起合作,Anirudh,是的,我今天早些时候见过他,他参与了赛前节目。Cadence做着令人难以置信的工作,加速他们的技术栈,创建AI代理,使得Cadence的AI ASIC设计师和系统设计师能够与我们协同工作。

今天,我们宣布一个新的项目。AI将大幅提升生产力,AI将彻底改变每一个行业。但AI也会极大地增强网络安全挑战,那些恶意的AI。因此我们需要一个强大的防御者,我无法想象有比CrowdStrike更好的防御者。我们与CrowdStrike合作,将网络安全的速度提升到光速,以创建一个在云端拥有网络安全AI代理的系统,同时在本地或边缘也拥有表现极为出色的AI代理。这样一来,每当出现威胁时,你就能在瞬间检测到它。我们需要速度,我们需要一个快速的自主智能、超智能的AI。

我有第二个声明。这是世界上发展最快的企业公司,可能是当今世界上最重要的企业级堆栈,Palantir Ontology。这里有来自Palantir的人吗?我刚才还在和Alex聊天。这是Palantir Ontology,他们获取信息、获取数据、获取人为判断,并将其转化为商业洞察。我们与Palantir合作,加速Palantir的所有工作,以便我们能够进行数据处理,以更大规模和更高速度进行数据处理,更大规模、更多速度。无论是过去的结构化数据,当然也包括我们将拥有结构化数据、人为记录的数据、非结构化数据,并为我们的政府处理这些数据,用于国家安全,以及为全球的企业服务,以光速处理这些数据并从中发现洞见。这就是未来的样子。Palantir将与NVIDIA集成,以便我们能够以光速和极大规模进行处理。

5、进军物理AI、机器人技术与自动驾驶

让我们来谈谈物理AI。物理AI需要三台计算机。正如训练一个语言模型需要两台计算机一样,一台用于训练它、评估它,然后用于推理它。所以你看到的是大型的GB200。为了用于物理AI,你需要三台计算机。你需要这台计算机来训练它,这是GB,即Grace Blackwell NVLink-72。我们需要一台能够运行我之前用Omniverse DSX展示的所有模拟的计算机。它基本上是一个数字孪生,让机器人学习如何成为一个优秀的机器人,并使工厂实质上成为一个数字孪生。那台计算机是第二台计算机,即Omniverse计算机。这台计算机必须在生成式AI方面表现卓越,并且必须在计算机图形学方面表现出色,传感器模拟、光线追踪、信号处理。这台计算机被称为Omniverse计算机。一旦我们训练好模型,就在数字孪生中模拟该AI,而该数字孪生可以是一个工厂的数字孪生,以及大量机器人的数字孪生体。然后,你需要操作那台机器人,这就是机器人计算机。这个可以装进一辆自动驾驶汽车里,其中一半可以装进一台机器人里。可以吗?或者你实际上可以拥有,比如说,机器人在操作中非常灵活且非常快速,可能需要两台这样的计算机。这就是Thor,Jetson Thor机器人计算机。这三台计算机都运行CUDA,这使我们能够推进物理AI,能够理解物理世界、理解物理定律的AI,因果关系、持久性,物理AI。

我们有令人难以置信的合作伙伴与我们一起打造工厂的物理AI。我们自己也在使用它来打造我们在德克萨斯的工厂。现在,一旦我们建成了机器人工厂,我们里面有一堆机器人,这些机器人也需要物理AI,将物理AI应用于数字孪生内部,并在其中运行。让我们看看它。

(视频内容)

这就是制造业的未来,未来的工厂。我要感谢我们的合作伙伴富士康。在这里。但所有这些生态系统合作伙伴使我们能够创造未来的机器人工厂。这个工厂本质上是一个机器人,它正在协调机器人去制造出具有机器人性质的东西。要做到这一点所需的软件量非常庞大,除非你能够在数字孪生中去规划它、去设计它、在数字孪生中去运营它,否则让这个方案奏效的希望几乎不可能。

我也很高兴看到Caterpillar,我的朋友Joe Creed,以及他那家有着百年历史的公司也在将数字孪生技术融入他们的制造方式。这些工厂将配备未来的机器人系统,其中最先进的之一是Figure。Brett Adcock今天在这里。他三年半前创办了一家公司,他们现在市值接近400亿美元。我们正在共同训练这个AI,训练机器人、模拟机器人,当然还有装入Figure的机器人电脑。真的非常惊人。我有幸见证了这一点,这真的相当非凡。很可能类人机器人会出现,而且,我的朋友Elon也在做这方面的工作,这很可能会成为最大的消费类产品之一,新的消费电子市场,当然还有最大的一类工业设备市场之一。

Peggy Johnson和Agility的团队正在与我们合作开发用于仓库自动化的机器人。Johnson & Johnson的团队再次与我们合作,训练机器人,在数字孪生中进行仿真,并且还要操作机器人。这些Johnson & Johnson外科手术机器人甚至将进行完全非侵入性的手术,达到世界前所未有的精确度。

当然,史上最可爱的机器人,迪士尼的机器人。这是与我们息息相关的某件事。我们正在与Disney Research合作开发一个全新的框架和仿真平台,基于一种名为Newton的革命性技术。而那款Newton模拟器使得机器人在具备物理感知的环境中学习如何成为一名优秀的机器人。让我们看看它。

(视频内容)

现在,人形机器人仍在开发中,但与此同时,有一款机器人明显处于拐点上,它基本上就在这里,那是一个带轮子的机器人。这是一个无人驾驶出租车。无人驾驶出租车本质上就是一个AI司机。现在,我们今天正在做的事情之一,我们宣布推出NVIDIA DRIVE Hyperion。这是一件大事。我们创建了这个架构,以便世界上每一家汽车公司都能制造车辆,可以是商用的,也可以是乘用的,可以是专用于无人出租车,制造出具备无人出租车准备能力的车辆。配备环视摄像头、雷达和激光雷达的传感套件使我们能够实现最高级别的全方位感知套件与冗余,这是实现最高安全级别所必需的。Hyperion DRIVE,DRIVE Hyperion现在已被设计进Lucid、梅赛德斯-奔驰、我的朋友Ola Källenius,Stellantis的团队,还有许多其他车型即将到来。

一旦你有了一个基本的标准平台,那么自动驾驶系统的开发者们,他们中有很多非常有才华的团队,例如 Wayve、 Waabi、 Aurora、 Momenta、 Nuro、 WeRide等,有这么多公司可以把他们的AV系统移植到标准底盘上运行。基本上,标准底盘现在已经变成了一个移动的计算平台。并且因为它是标准化的,且传感器套件非常全面,他们都可以将他们的AI部署到上面。我们来快速看一下。好的。

(视频内容)

那就是美丽的旧金山,正如你所见,自动驾驶出租车的拐点即将到来。未来,每年将有万亿英里被驾驶,每年制造1亿辆汽车,全球大约有5000万辆出租车将会被大量无人驾驶出租车所增强。所以这将是一个非常庞大的市场。为了将其连接并在全球部署,今天我们宣布与Uber建立合作伙伴关系。Uber的Dara,Dara要走了。我们正在合作,将这些NVIDIA DRIVE Hyperion汽车连接成一个全球网络。而在未来,你将能够召唤到这些汽车中的一辆,生态系统将非常丰富,我们会在全世界看到Hyperion或无人驾驶出租车出现。这将成为我们的一个新的计算平台,我预计它会非常成功。好的。

这就是我们今天所讨论的内容。我们讨论了很多很多事情。请记住,其核心是两点,是从通用计算向加速计算的两次平台转变。NVIDIA CUDA及其名为CUDA-X的一系列库使我们能够应对几乎所有行业,我们正处于拐点,现在它正如虚拟循环所示地增长。第二个拐点现在已经到来,从传统手写软件到AI的转变。两个平台同时发生转变,这就是我们感受到如此惊人增长的原因。

量子计算,我们已经提到过。我们谈到了开源模型。我们谈到了与CrowdStrike的企业应用,以及Palantir,加速他们的平台。我们谈到了机器人技术,一个新的可能成为最大规模的消费电子和工业制造行业之一。当然,我们还谈到了6G,NVIDIA有了用于6G的新平台,我们称之为Aria。我们有一个用于机器人汽车的新平台,我们把它称为Hyperion。我们有新的平台,即便是面向工厂,也是两类工厂,我们把那个AI工厂称为DSX,然后把工厂与AI结合,我们称之为MEGA。

知识技巧更多>>

汽车产业如何拥抱AI?一场关于技术突破与协同创新的探讨 奥迪 E5 Sportback进博会首秀 小鹏汽车已向供应链发出《小鹏X9超级增程供应能力保障通知》,要求在今年年底前紧急追加5000套备料 特斯拉异动拉涨!马斯克豪言每12个月推出一代AI芯片 华为查找设备新增“关机验证密码”功能,设备丢失后不用担心被恶意关机,可增加被找回的概率 iPhone上吃灰两年的按钮 终于被这App救活了 卢伟冰晒小米庆功会菜单,网友:菜单内竟出现错别字 阿里千问启用全新域名qianwen.com 禾赛CEO炮轰“数字激光雷达”:假的 纯营销 打响消费级“第一枪”,国产CPU第一次与全球顶级巨头坐一桌 增加续航,降低油耗,2026款比亚迪夏能否成为中大型MPV搅局者? 奔驰纯电CLA上市,三叉星徽的背水一战? 拐点之后是起点:江淮汽车长期增长新叙事 实拍马自达Vision X-Compact:马自达2雏形亮相,升格竞争不再廉价 首月下线交付2万辆,智己LS6为什么能爆单? 8月泰国车市:日系燃油车统治、中国品牌新能源车型破局 PHEV被怒斥为汽车史上最大骗局,网友:那是欧洲的“油改电”,中国品牌遥遥领先 微信员工:鸿蒙新版本正常推进内测 “最懂女性”的360亿游戏大佬,要“隐退”了? 超级智能降临时间表公布:AI“边抢工作边创造机会” 小红书评论区,被麦霸占领了 黄仁勋GTC最新演讲:5000亿目标、10倍性能与AI工厂(两万字完整实录)第二版 科学家造出“人眼级”电子纸 每像素对应一个视网膜细胞 曝华为Pura 90系列开始测试2亿像素 但仅限高端机型 黄仁勋勾勒AI宏伟蓝图:6G、量子计算、机器人、自动驾驶全都有份 一加手机上半年全渠道销量同比增长 31%,位列手机品牌第一 真我realme手机全球累计出货量突破3亿台,7年实现跨越式增长 上半年国内手机市场激活量排名:华为夺冠 苹果第四 华为Mate XTs硬刚iPhone17:同日发布,谁会更胜一筹? 性能续航全到位!iQOO Z10 Turbo+评测:实现全天游戏自由的电竞新卷王