英偉達(NVDA)財報回顧 – 2024 年 5 月 22 日
Nvidia 為數據中心、遊戲和其他使用場景設計生產半導體。 它被一致認為是用於加速計算和生成式人工智慧(GenAI)使用場景的晶元的技術領導者。 以下是你需要瞭解的公司重要縮寫詞和定義:
- GPU(圖形處理器):圖形處理器 這是一種用於處理視覺資訊和數據的電子電路。
- CPU(中央處理器):中央處理器。 這是一種不同類型的電子電路,用於執行應用程式的任務/分配和數據處理。 老師通常稱之為 「計算機的大腦」。
- DGX:Nvidia 的全棧平台,結合了其晶元組和軟體服務。
- Hopper:Nvidia 的現代 GPU 架構,專為加速計算和 GenAI 而設計。 它是DGX平台的關鍵部分。
- H100:Hopper 100 晶元。 (H200 即Hopper 200)
- L40S:另一款基於 Ada Lovelace 架構的裸機 GPU 晶片組。 它最適合不太複雜的需求。
- Ampere:Hopper 所取代的 GPU 架構,取代後的性能提升 16 倍。
- Grace:Nvidia專為加速計算和GenAI設計的全新CPU架構。 它是DGX平台的關鍵部分。
- GH200:採用 Nvidia GPU 和 ARM Holdings 技術的 Grace Hopper 200 超級晶片。
- InfiniBand:提供超低延遲計算網路的互連技術。
- NeMo:引導式的步驟功能,針對客戶的特定需求建立精細的 GenAI 模型。 這是一個標準化的模型創建環境。
- Cuda:Nvidia設計的計算和程式編寫平臺,專為Nvidia GPU打造。 Cuda 可為 Nvidia Inference Microservices (NIM) 等提供支援,NIM 可指導 GenAI 模型的部署(在 NeMo 説明構建模型之後)。
- NIM 可幫助 「隨處運行 Cuda」–在內部部署和託管雲環境中。
- GenAI 模型培訓:模型開發的兩個關鍵層之一。 通過向模型提供特定數據,可以調節模型的性能。
- GenAI 模型推理:模型開發的第二個關鍵層。 這促使訓練有素的模型產生新的洞見,並發現新的相關模式。 它將我們沒有意識到的數據點聯繫起來。 訓練是第一位的。 推理是第二位…… 第三位…… 第四位等等。
需求
- 收入超出預期 5.5%,超出指引目標 8.3%。
- 數據中心收入超出預期 6.6%。
Nvidia 3 年收入複合年增長率(CAGR)繼續加速增長。 本季度為 66.2%,而季度為 64%,兩個季度前為 56%。
Source: Brad Freeman – SEC Filings, Company Presentations, and Company Press Releases
利潤與獲利率
- 息稅前利潤超出預期 10.8%,息稅前利潤超出指引值 12.9%。
- 較 5.18 美元的美國通用會計準則(GAAP)每股收益預期高出 0.80 美元,較美國通用會計準則(GAAP)每股收益指引值高出 0.96 美元。
- 美國通用會計準則(GAAP)和非美國通用會計準則(Non-GAAP)的運營支出(OpEx)增長繼續落後於收入增長。 我喜歡。
- 毛利率 (GPM) 比預期及指引的 77% 高出 190 個基點(1 個基點 = 0.01%)。 較低的庫存費用大大促進了 GPM 的年同比快速增長。
Source: Brad Freeman – SEC Filings, Company Presentations, and Company Press Releases
資產負債表
- 314 億美元的現金及等價物。
- 97 億美元的債務。
- 股本同比基本持平。
- 將季度股息從 0.04 美元提高到 0.10 美元。
- 宣佈 10-1 拆股。
第二季度指引與估值
- 收入指引超出預期 4.9%。
- 息稅前盈利指引超出預期 4.8%。
- 約 6.21 美元的每股收益指引超出 0.21 美元。 這是在假設季度與季度之間的股數持平的情況下得出的結論。 Nvidia 只提供毛利率、運營支出、營業外收入和稅收指引。 因此,我們必須假定 EPS 的股份數。
- 預計運營支出年增長率為%-43%。 這與賣方預期的86%的收入年增長率相比,可謂天壤之別。
Nvidia 的遠期每股收益為 36 倍; 每股收益將按年增長95%(現在可能接近100%)。 預計明年每股收益將同比增長 26%。
電話會與發佈會
資料中心需求:
從這些出色的成果中可以看出,對 Nvidia GenAI 基礎設施的需求非常大。 這直接體現在其業務的數據中心部分。 所有類型的終端客戶和所有地區的需求仍然高於供應。
需求為何如此旺盛? 因為 Nvidia 在提供大型培訓、效率和總體擁有成本 (TCO) 優勢方面,始終在實質上領先於其他所有人。 這些龐大的領先優勢為雲供應商帶來了豐厚的投資回報(ROI)。 具體來說,在 Nvidia 的人工智慧基礎架構(包括晶片和 Cuda)上每花費 1 美元,就能在 4 年內為客戶帶來 5 美元的 GPU 實例託管收入。 這意味著 Nvidia 晶片的投資回收期在 1 年以內,非常有吸引力。
這裏還有一個關鍵優勢:垂直整合。 Nvidia 不僅僅在 Hopper 平臺或較新的 Blackwell GPU平臺上設計晶片。 其工具包包括晶元、伺服器、交換機、網路和尖端軟體。 它設計了整個下一代數據中心佈局,使客戶能夠享受加速計算的最佳效果。 Nvidia 將這些數據中心稱為 「人工智慧工廠」。
Cuda 是一個功能強大的軟體層,它使 Nvidia 能夠不斷優化堆疊的每個部分。 它一直在進步。 例如,本季度它説明將 H100 的推理性能提升了 3 倍。 通過執著地控制基礎設施的每一個環節,它能比其他公司更快地實現改進。 它不需要第三方供應商,這意味著總體服務的孤島化程度較低。 它可以即時觀察瓶頸…… 它可以即時優化…… 它可以即時為客戶提供實實在在的價值。 這個想法與我報導過的其他純軟體平臺有些類似,它們都創建了同樣的實用工具。 想想 ServiceNow、Salesforce 等。
“我們知道它行得通,因為所有的東西都是我們打造的”。 – 首席執行官黃仁勳
無論是你能想到的所有大市值科技公司,還是你能想到的所有著名的 GenAI 獨角獸,Nvidia 都在主導著它所認為的 「下一次工業革命」。 它在特斯拉突破性的自動駕駛軟體和 Meta 突破性的 Llama 車型中發揮了重要作用。 這樣的例子不勝枚舉。 競爭對手可以努力追趕…… 但 Nvidia 新平台反覆運算的速度(或 “節奏”)之快,使其很難一路追趕上來。 其他人都在落後數英里的情況下進行比賽,而 Nvidia 則繼續以比他們更快的速度衝刺。
有人問領導層,這種快速的改進是否會打擊客戶購買大量 H100 晶片的積極性。 如果亞馬遜(巧合的例子)知道 6 個月後會有更好的東西出現,為什麼不等呢? 他們真的等不及了。 大型 GenAI 企業正在進行一場軍備競賽,以建立在未來幾年為應用程式和應用場景提供支援所需的基礎設施。 Huang 認為,等待下一次反覆運算幾乎可以保證你不會引領這一浪潮。
“在本季度,我們看到了對 Hopper 的更多需求。 在向 H200 過渡的過程中,我們預計在相當長的一段時間內都會供不應求」。 – 創始人/首席執行官黃仁勳
推理仍占數據中心總收入的 40%,並將繼續佔據大部分商機。 模型只需訓練一次,然後定期使用更多數據進行調整。 而推理是恆定的。 有鑒於此,模式正在從 「資訊檢索轉向問題解答和技能生成」。 這將需要更大的推理能力。 Nvidia 憑藉其無與倫比的能力,以更低的成本和更好的方式提供推理能力。 很好的組合。
“我們正在從根本上改變計算的方式和計算機的功能…… 我們正在製造數位智慧」。 – 創始人/首席執行官黃仁勳
- 預計汽車行業將成為今年數據中心收入的最大貢獻者。
晶片創新:
本季度,Nvidia 向 OpenAI 交付了首款 H200 晶片。 如果你看過 OpenAI 演示…… 沒有 Nvidia,這一切都不可能實現。 H200 的推理性能是 H100 的兩倍。
DGX H200 伺服器 是 Nvidia 打造的計算機系統,以整齊劃一的包裝向客戶提供 H200 晶片、記憶體、存儲和網路。 Meta 公司的 Llama 型號就使用了這種材料。 一般來說,客戶在這些伺服器上平均每花費 1 美元,就能在 4 年內獲得 7 美元的收入。 這意味著投資在 6 個多月內就能盈利。
GH200 晶片正在 「批量出貨」。 9台新型超級計算機正在使用這些晶元,以進行更 「節能的人工智慧處理」。 Nvidia 的 GH200 晶片在全球超級計算機中的使用率高達 80%。 不是錯別字。 它為世界上所有 3 台最高效的超級電腦提供動力。
其最新的 Blackwell GPU 訓練模型的速度比 H100 快 4 倍,推理能力強 30 倍。 得益於空氣冷卻等技術,它的總體擁有成本降低了整整 25 倍,而且現在還能實現大規模液冷。 建造Blackwell 的初衷是使液體冷卻系統在經濟上變得可行。 熱量越少,浪費越少,效率越低。 這個操作很簡單。 Blackwell 平臺包括其最新的網路產品(將在下文討論)。 Blackwell 將於本季度開始發貨。
網路收入:
該產品類別使數據中心和應用程式之間的通信更加無縫。 網路營收和 Nvidia 晶片組就像鹽和胡椒粉一樣配合默契。 它們將一流的模型訓練/推理與更好的互操作性相結合,從而…… 你猜對了…… 為客戶提供更好的結果。
Infiniband 和 Spectrum X 是這裡要重點介紹的兩種產品。 Infiniband的需求依然異常強勁。 季度與季度之間的收入確實有所下降,但這是由於供應可用性造成的。 由於需求繼續 「遙遙領先於 」供應,第二季度將恢復環比增長。 Spectrum X 是其用於大規模純乙太網人工智慧的新型網路產品。 與其他替代產品相比,它的網路性能提高了 60%,並已進入多個大型 Nvidia GPU 集群。 該公司認為,Spectrum X 的年收入將從 0 美元增至年內的幾十億美元。
需求秀:
對於 Nvidia 而言,目前的爭論焦點在於當前需求熱潮的持續時間。 顯而易見,Nvidia 正在引領這股熱潮,但這股熱潮還能持續多久? 其中一個關鍵因素是其供需動態。 如果供應緊張的情況持續更長時間,這就意味著它可以銷售自己生產的所有產品,而且具有很強的定價能力。 H100 晶元的供應似乎更容易滿足仍然強勁的需求。 H200 晶元、GH200 晶片和 Blackwell 的早期訂單表明,供應緊張將持續到 “明年”。 這一點非常重要。 這表明,在可預見的未來,穩如磐石的高利潤需求仍將持續。 半導體行業現在是,將來也永遠是週期性的。 Nvidia 願意就長期可見性提供的任何評論都非常有價值。 這些評論如此積極,令人鼓舞。 Nvidia 只提供一個季度的具體指引是有原因的。 在不可預測的週期中建立多年需求模型非常困難。 這表明,他們對至少在未來18個月內供不應求充滿信心。
中國:
Nvidia 設計了一款性能較弱的 H100 晶片,以符合新的對華出口限制。 它叫 H20。 該公司尚未獲得繼續銷售 H100 或其他功能更強大的晶片所需的任何許可。 Nvidia 在其他方面的需求過剩,因此這種打擊目前並不重要。
主權人工智慧:
Nvidia 正迅速成為全球各國政府擁抱人工智慧轉型的首選合作夥伴。 得益於上述垂直整合,Nvidia 可以比其他公司更好地為公共部門客戶提供指導。 領導層認為,這為在政府自身數據上訓練地理特定模型的無與倫比的能力鋪平了道路。 義大利、法國、新加坡和日本等國政府都對 Nvidia 寄予厚望。
遊戲與專業視覺化(ProViz):
Nvidia 最新遊戲 GPU(GeForce RTX 超級 GPU)的反響被稱為 「強勁」。 這些設備配備了 Cuda 內核,可實現高質量處理和通用計算工具。 它們還配備了專為高性能計算用例設計的張量內核。 張量內核可即時優化圖像清晰度和延遲。 Nvidia 和微軟提供了一種新的 Windows 優化; 它允許大型語言模型 (LLM) 以 3 倍於 GeForce RTX GPU 的速度運行。
Nvidia 發佈了新的應用程式設計介面 (API),允許客戶運行數位孿生類比。 這為在零風險環境中測試和修補應用程式提供了大量寶貴的用例。 它增強了客戶快速反覆運算的能力,而不用擔心會破壞某些東西。 這些數位孿生使客戶的生產周期縮短了一半,缺陷率降低了 40%。
- 遊戲收入同比增長18%。
- ProViz 收入同比增長 45%。
觀點
這些成果就像漫長一周后如詩如畫的夕陽:令人驚歎、漂亮、溫暖、放鬆。 這是它幾個季度以來最一般的表現嗎? 是的,就是這樣。 但這仍然稱得上精英嗎? 當然也是。 我發現,在這麼多分析師的關注下,這家公司還能繼續取得超出預期的爆炸性增長,真是了不起。 一個季度又一個季度。 除了 「偉大的成果」…… 還有什麼好說的呢? 只要這個週期還在持續,Nvidia 顯然就會領跑。