英伟达(NVDA)财报回顾 – 2024 年 5 月 22 日
Nvidia 为数据中心、游戏和其他使用场景设计生产半导体。 它被一致认为是用于加速计算和生成式人工智能(GenAI)使用场景的芯片的技术领导者。 以下是你需要了解的该公司的重要缩写词和定义:
- GPU(图形处理器):图形处理器 这是一种用于处理视觉信息和数据的电子电路。
- CPU(中央处理器):中央处理器。 这是一种不同类型的电子电路,用于执行应用程序的任务/分配和数据处理。 老师通常称之为 “计算机的大脑”。
- DGX:Nvidia 的全栈平台,结合了其芯片组和软件服务。
- Hopper:Nvidia 的现代 GPU 架构,专为加速计算和 GenAI 而设计。 它是DGX 平台的关键部分。
- H100:Hopper 100 芯片。 (H200 即Hopper 200)
- L40S:另一款基于 Ada Lovelace 架构的裸机 GPU 芯片组。 它最适合不太复杂的需求。
- Ampere:Hopper 所取代的 GPU 架构,取代后的性能提升 16 倍。
- Grace:Nvidia专为加速计算和GenAI设计的全新CPU架构。 它是DGX 平台的关键部分。
- GH200:采用 Nvidia GPU 和 ARM Holdings 技术的 Grace Hopper 200 超级芯片。
- InfiniBand:提供超低延迟计算网络的互连技术。
- NeMo:引导式的步骤功能,针对客户的特定需求建立精细的 GenAI 模型。 这是一个标准化的模型创建环境。
- Cuda:Nvidia设计的计算和程序编写平台,专为Nvidia GPU打造。 Cuda 可为 Nvidia Inference Microservices (NIM) 等提供支持,NIM 可指导 GenAI 模型的部署(在 NeMo 帮助构建模型之后)。
- NIM 可帮助 “随处运行 Cuda”–在内部部署和托管云环境中。
- GenAI 模型培训:模型开发的两个关键层之一。 通过向模型提供特定数据,可以调节模型的性能。
- GenAI 模型推理:模型开发的第二个关键层。 这促使训练有素的模型产生新的洞见,并发现新的相关模式。 它将我们没有意识到的数据点联系起来。 训练是第一位的。 推理是第二位……第三位……第四位等等。
需求
- 收入超出预期 5.5%,超出指引目标 8.3%。
- 数据中心收入超出预期 6.6%。
Nvidia 3 年收入复合年增长率(CAGR)继续加速增长。 本季度为 66.2%,而季度为 64%,两个季度前为 56%。
Source: Brad Freeman – SEC Filings, Company Presentations, and Company Press Releases
利润与利润率
- 息税前利润超出预期 10.8%,息税前利润超出指引值 12.9%。
- 较 5.18 美元的美国通用会计准则(GAAP)每股收益预期高出 0.80 美元,较美国通用会计准则(GAAP)每股收益指引值高出 0.96 美元。
- 美国通用会计准则(GAAP)和非美国通用会计准则(Non-GAAP)的运营支出(OpEx)增长继续落后于收入增长。 我喜欢。
- 毛利率 (GPM) 比预期及指引的 77% 高出 190 个基点(1 个基点 = 0.01%)。 较低的库存费用大大促进了 GPM 的年同比快速增长。
Source: Brad Freeman – SEC Filings, Company Presentations, and Company Press Releases
资产负债表
- 314 亿美元的现金及等价物。
- 97 亿美元的债务。
- 股本同比基本持平。
- 将季度股息从 0.04 美元提高到 0.10 美元。
- 宣布 10-1 拆股。
第二季度指引与估值
- 收入指引超出预期 4.9%。
- 息税前盈利指引超出预期 4.8%。
- 约 6.21 美元的每股收益指引超出 0.21 美元。 这是在假设季度与季度之间的股数持平的情况下得出的结论。 Nvidia 只提供毛利率、运营支出、营业外收入和税收指引。 因此,我们必须假定 EPS 的股份数。
- 预计运营支出年增长率为40%-43%。 这与卖方预期的 86% 的收入年增长率相比,可谓天壤之别。
Nvidia 的远期每股收益为 36 倍;每股收益将按年增长 95%(现在可能接近 100%)。 预计明年每股收益将同比增长 26%。
电话会与发布会
数据中心需求:
从这些出色的成果中可以看出,对 Nvidia GenAI 基础设施的需求非常大。 这直接体现在其业务的数据中心部分。 所有类型的终端客户和所有地区的需求仍然高于供应。
需求为何如此旺盛? 因为 Nvidia 在提供大型培训、效率和总体拥有成本 (TCO) 优势方面,始终在实质上领先于其他所有人。 这些庞大的领先优势为云提供商带来了丰厚的投资回报(ROI)。 具体来说,在 Nvidia 的人工智能基础架构(包括芯片和 Cuda)上每花费 1 美元,就能在 4 年内为客户带来 5 美元的 GPU 实例托管收入。 这意味着 Nvidia 芯片的投资回收期在 1 年以内,非常有吸引力。
这里还有一个关键优势:垂直整合。 Nvidia 不仅仅在 Hopper 平台或较新的 Blackwell GPU平台上设计芯片。 其工具包包括芯片、服务器、交换机、网络和尖端软件。 它设计了整个下一代数据中心布局,使客户能够享受加速计算的最佳效果。 Nvidia 将这些数据中心称为 “人工智能工厂”。
Cuda 是一个功能强大的软件层,它使 Nvidia 能够不断优化堆栈的每个部分。 它一直在进步。 例如,本季度它帮助将 H100 的推理性能提升了 3 倍。 通过执着地控制基础设施的每一个环节,它能比其他公司更快地实现改进。 它不需要第三方供应商,这意味着总体服务的孤岛化程度较低。 它可以实时观察瓶颈……它可以实时优化……它可以实时为客户提供实实在在的价值。 这个想法与我报道过的其他纯软件平台有些类似,它们都创建了同样的实用工具。 想想 ServiceNow、Salesforce 等。
“我们知道它行得通,因为所有的东西都是我们打造的”。- 首席执行官黄仁勋
无论是你能想到的所有大市值科技公司,还是你能想到的所有著名的 GenAI 独角兽,Nvidia 都在主导着它所认为的 “下一次工业革命”。 它在特斯拉突破性的自动驾驶软件和 Meta 突破性的 Llama 车型中发挥了重要作用。 这样的例子不胜枚举。 竞争对手可以努力追赶……但 Nvidia 新平台迭代的速度(或 “节奏”)之快,使其很难一路追赶上来。 其他人都在落后数英里的情况下进行比赛,而 Nvidia 则继续以比他们更快的速度冲刺。
有人问领导层,这种快速的改进是否会打击客户购买大量 H100 芯片的积极性。 如果亚马逊(巧合的例子)知道 6 个月后会有更好的东西出现,为什么不等呢? 他们真的等不及了。 大型 GenAI 企业正在进行一场军备竞赛,以建立在未来几年为应用程序和应用场景提供支持所需的基础设施。 Huang 认为,等待下一次迭代几乎可以保证你不会引领这一浪潮。
“在本季度,我们看到了对 Hopper 的更多需求。在向 H200 过渡的过程中,我们预计在相当长的一段时间内都会供不应求”。- 创始人/首席执行官黄仁勋
推理仍占数据中心总收入的 40%,并将继续占据大部分商机。 模型只需训练一次,然后定期使用更多数据进行调整。 而推理是恒定的。 有鉴于此,模式正在从 “信息检索转向问题解答和技能生成”。 这将需要更大的推理能力。 Nvidia 凭借其无与伦比的能力,以更低的成本和更好的方式提供推理能力。 很好的组合。
“我们正在从根本上改变计算的方式和计算机的功能……我们正在制造数字智能”。- 创始人/首席执行官黄仁勋
- 预计汽车行业将成为今年数据中心收入的最大贡献者。
芯片创新:
本季度,Nvidia 向 OpenAI 交付了首款 H200 芯片。 如果你看过 OpenAI 演示……没有 Nvidia,这一切都不可能实现。 H200 的推理性能是 H100 的两倍。
DGX H200 服务器 是 Nvidia 打造的计算机系统,以整齐划一的包装向客户提供 H200 芯片、内存、存储和网络。 Meta 公司的 Llama 型号就使用了这种材料。 一般来说,客户在这些服务器上平均每花费 1 美元,就能在 4 年内获得 7 美元的收入。 这意味着投资在 6 个多月内就能盈利。
GH200 芯片正在 “批量出货”。9台新型超级计算机正在使用这些芯片,以进行更 “节能的人工智能处理”。 Nvidia 的 GH200 芯片在全球超级计算机中的使用率高达 80%。 不是错别字。 它为世界上所有 3 台最高效的超级计算机提供动力。
其最新的 Blackwell GPU 训练模型的速度比 H100 快 4 倍,推理能力强 30 倍。 得益于空气冷却等技术,它的总体拥有成本降低了整整 25 倍,而且现在还能实现大规模液冷。 建造Blackwell 的初衷是使液体冷却系统在经济上变得可行。 热量越少,浪费越少,效率越低。 这个操作很简单。 Blackwell 平台包括其最新的网络产品(将在下文讨论)。 Blackwell 将于本季度开始发货。
网络收入:
该产品类别使数据中心和应用程序之间的通信更加无缝。 网络营收和 Nvidia 芯片组就像盐和胡椒粉一样配合默契。 它们将一流的模型训练/推理与更好的互操作性相结合,从而……你猜对了……为客户提供更好的结果。
Infiniband 和 Spectrum X 是这里要重点介绍的两种产品。 Infiniband 的需求依然异常强劲。 季度与季度之间的收入确实有所下降,但这是由于供应可用性造成的。 由于需求继续 “遥遥领先于 “供应,第二季度将恢复环比增长。 Spectrum X 是其用于大规模纯以太网人工智能的新型网络产品。 与其他替代产品相比,它的网络性能提高了 60%,并已进入多个大型 Nvidia GPU 集群。 该公司认为,Spectrum X 的年收入将从 0 美元增至年内的几十亿美元。
需求秀:
对于 Nvidia 而言,目前的争论焦点在于当前需求热潮的持续时间。 显而易见,Nvidia 正在引领这股热潮,但这股热潮还能持续多久? 其中一个关键因素是其供需动态。 如果供应紧张的情况持续更长时间,这就意味着它可以销售自己生产的所有产品,而且具有很强的定价能力。 H100 芯片的供应似乎更容易满足仍然强劲的需求。 H200 芯片、GH200 芯片和 Blackwell 的早期订单表明,供应紧张将持续到 “明年”。 这一点非常重要。 这表明,在可预见的未来,稳如磐石的高利润需求仍将持续。 半导体行业现在是,将来也永远是周期性的。 Nvidia 愿意就长期可见性提供的任何评论都非常有价值。 这些评论如此积极,令人鼓舞。 Nvidia 只提供一个季度的具体指引是有原因的。 在不可预测的周期中建立多年需求模型非常困难。 这表明,他们对至少在未来 18 个月内供不应求充满信心。
中国:
Nvidia 设计了一款性能较弱的 H100 芯片,以符合新的对华出口限制。 它叫 H20。 该公司尚未获得继续销售 H100 或其他功能更强大的芯片所需的任何许可。 Nvidia 在其他方面的需求过剩,因此这种打击目前并不重要。
主权人工智能:
Nvidia 正迅速成为全球各国政府拥抱人工智能转型的首选合作伙伴。 得益于上述垂直整合,Nvidia 可以比其他公司更好地为公共部门客户提供指导。 领导层认为,这为在政府自身数据上训练地理特定模型的无与伦比的能力铺平了道路。 意大利、法国、新加坡和日本等国政府都对 Nvidia 寄予厚望。
游戏与专业可视化(ProViz):
Nvidia 最新游戏 GPU(GeForce RTX 超级 GPU)的反响被称为 “强劲”。 这些设备配备了 Cuda 内核,可实现高质量处理和通用计算工具。 它们还配备了专为高性能计算用例设计的张量内核。 张量内核可即时优化图像清晰度和延迟。 Nvidia 和微软提供了一种新的 Windows 优化;它允许大型语言模型 (LLM) 以 3 倍于 GeForce RTX GPU 的速度运行。
Nvidia 发布了新的应用编程接口 (API),允许客户运行数字孪生模拟。 这为在零风险环境中测试和修补应用程序提供了大量宝贵的用例。 它增强了客户快速迭代的能力,而不用担心会破坏某些东西。 这些数字孪生使客户的生产周期缩短了一半,缺陷率降低了 40%。
- 游戏收入同比增长 18%。
- ProViz 收入同比增长 45%。
观点
这些成果就像漫长一周后如诗如画的夕阳:令人惊叹、漂亮、温暖、放松。 这是它几个季度以来最一般的表现吗? 是的,就是这样。 但这仍然称得上精英吗? 当然也是。 我发现,在这么多分析师的关注下,这家公司还能继续取得超出预期的爆炸性增长,真是了不起。 一个季度又一个季度。 除了 “伟大的成果”……还有什么好说的呢? 只要这个周期还在持续,Nvidia 显然就会领跑。