
英偉達,不能只做孤獨的勝利者

圖片|Photo by the economic times
©自象限原創
作者|周遊
編輯|程心
“英偉達是教科書式的市場大錯覺”
大模型的浪潮下,英偉達成了 2023 年最賺錢的科技公司,但傳奇投資人、投資機構 Research Affiliates 的董事長羅伯•阿諾特卻認為英偉達在今年驚人的反彈後形成了巨大資產泡沫。
表面原因有很多,無論是英偉達不夠老的資歷、遠超行業水平的市盈率,還是對其硬件生產商業模式天花板的討論,人們認可英偉達的價值,也同樣擔憂他的未來。
以市盈率為例,作為對比,微軟總市值 2.36 萬億,市盈率 ttm32.75;谷歌市值 1.64 萬億,市盈率 ttm27.54;蘋果市值 2.73 萬億,市盈率 ttm29.33;而英偉達市值 1.03 萬億,市盈率卻高達 100.51。
而更核心的原因在於,在巨大的 AI 浪潮,似乎只有英偉達一家賺得盆滿缽滿。
整個產業鏈尚處於百廢待興的狀態,一切都在十分早期,商業化的路徑並不明確。從其中上市科技公司的二季度財報數據來看,包括 Google、Meta、Microsoft 在內,推動增長的仍然是最傳統的廣告業務,AI 在財報中不僅沒有成為主角,甚至沒有被過多提到。
當然,英偉達搶灘着陸,因為他是典型的 “賣鏟子” 的公司,但不能忽視的問題是,如果淘金者持續淘不到金子,賣鏟子的生意也不可持續。
個體的繁榮要建立在生態的繁榮之上,否則一條不健康的產業鏈,無法培育出下一個長紅的萬億科技公司。
當然,從英偉達最近頻繁的投資和談判的動作來看,英偉達正試圖破局,在 GPU 之上講出一個關於 “雲與軟件服務” 的新故事,以此來重新錨定自己在 AI 時代的位置。
英偉達,不能只做孤獨的勝利者。
焦慮
偉達是 AI 大模型最大的受益者,今年他或將一改全球半導體行業已經 21 年的格局,成為年收入最高的半導體公司。
近日,名半導體行業諮詢機構 Semiconductor Intelligence 發佈消息,預計英偉達 2023 年收入將達到 529 億美元,接近其 2022 年收入的兩倍,並超越英特爾和三星,成為全球收入最高的半導體公司。
目前來看,英偉達二季度的收入就已經超過英特爾。財報數據顯示,英偉達二季度收入收入為 135.1 億美元,較上一季度增長 88%,較去年同期增長 101%,淨利潤更是暴漲 843%。
▲圖源:Semiconductor Intelligence
這一切自然都得益於 AI 大模型的爆發,其 A100 和 H100 系列是目前訓練 AI 大模型最有效率的工具。研究機構 Omdia 近日提到,英偉達二季度出貨了 900 噸 H100 顯卡,按一張 H100 約 3kg 的重量,僅二季度英偉達可能就賣出了約 30 萬塊 H100。
毫無疑問,2023 年是英偉達最高光的時候,但即便這樣的高光頂上也不免存在着一朵陰雲——即除了英偉達之外,其他和大模型相關的企業似乎都不怎麼賺錢。
8 月底,The Information 報道 OpenAI 預計在未來 12 個月內,通過銷售人工智能軟件及其計算能力,將獲得超過 10 億美元的收入,但這些收入目前還只是 “預計”。
更直觀的一點感受是,今年二季度,作為如今全球 AI 大模型最具代表的企業,在 Google 母公司 Alphabet、Microsoft 和 Meta 的財報中 ,AI 不僅沒有成為其中主角,甚至沒有被提到更多。
真正推動這些巨無霸增長的,還是最傳統的互聯網變現方式——廣告。各家在提到二季度的增長時,都異口同聲的提到:“得益於廣告行業的復甦”。
至於 AI 和大模型,過去半年中 “OpenAI 使用了 Azure 的智能雲服務” 一直被認為是 Azure 最好的廣告,但二季度 Azure 的業績增速並不理想。財報顯示,微軟智能雲業務的收入增長為 32 億美元,漲幅 15%。而 2023 財年 Q2、Q3 的增幅分別為 18% 和 16%,2022 財年 Q4 的增幅為 20%。
▲數據來源:微軟財報
Alphabet 也處於漫長的投入期,其首席財務官 Ruth Porat 在之前的財報電話會議上表示,新的人工智能技術是有代價的,Alphabet 第二季度資本支出的最大組成部分是服務器,以及對人工智能計算的 “重大投資”。
在國內,只有三六零在 9 月份發佈半年報時提到,大模型已經為公司創收 2000 萬元,被認為是第一個用大模型賺到錢的互聯網公司。但對比上半年 15.6 億元的研發投入,也只是杯水車薪。
顯而易見,英偉達是目前少有的通過 AI 大模型賺到錢的公司。原因也很簡單,因為別人都在 “淘金子”,但他是在賣 “鏟子”。
大多數人欣賞這樣的公司,因為這是每次淘金熱中最穩定賺錢的一撥人。但人們其實也總愛忽略一個問題,即如果淘金的人長時間淘不到金子,那麼 “賣鏟子” 的生意也必定不會長久。
近日,集微網報道,AI 協作工具 Microsoft 365 Copilot 需求不如之前強烈等原因,微軟正在下調英偉達 H100 芯片訂單,且拉貨放緩。
德意志銀行的分析師也曾在英偉達財報後提到,他們預計數據中心客户將在某個時候放慢購買芯片的速度,以便 “消化” 已經購買的芯片。
顯然,由於商業化落地不及預期,今年上半年瘋狂下單的芯片正在經歷一個 “冷靜” 和 “飽和” 的階段。
這正是英偉達的焦慮。
作為 “賣鏟者”,英偉達的增長必須要建立在行業整體的增長之上,只有英偉達一家賺錢的行業不是一個好行業。
破局
為了緩解這種焦慮,上半年賺了錢的英偉達開始瘋狂投資。
據不完全統計,英偉達今年上半年已完成 20 多筆投資,作為對比,作為全球創投界的"三巨頭"之一的環球老虎基金,今年上半年也才完成 30 筆左右的交易。
英偉達投資的企業主要都與 AI 相關,其中不乏 AI 大模型的 “獨角獸企業”,比如加拿大 AI 公司 Cohere,軟件初創公司 Databricks、美國 AI 初創公司 Inflection AI、視頻類 AI 生成公司 Runway 等等。
▲圖:Inflection AI 官網
投資這些公司,除了生態佈局和投資回報之外,對於英偉達最直接的意義還是拉動其 GPU 的增長。
比如,Inflection AI 6 月份宣佈正在開發一款超級計算機,將配備 2.2 萬片英偉達 H100。再比如,同樣獲得英偉達投資的 AI 算力新秀 CoreWeave,近期通過抵押 H100 拿到了 23 億美元的貸款,用來購買更多英偉達 GPU 組建計算中心。
通過給 AI 大模型企業提供投資,企業拿到錢之後又反過來購買英偉達的 GPU,再將 GPU 抵押貸款,貸出來的錢再購買英偉達的 GPU。
如此循環,雞生蛋,蛋生雞。以至於有人批評英偉達獲得收入的方式是 “往返交易”(洗錢的一種方式)。
當然,對於英偉達來説,通過投資來擴大 GPU 的出貨量顯然不是最終目的,這背後隱藏着英偉達面對產業焦慮的解決方式和磅礴的野心。
作為參考,英偉達上一個投資爆發點在 2017 年,當時核心圍繞兩個方向,一個是以 GPU 為計算核心的人工智能,另一個則是汽車電子。
彼時黃仁勳意識到除了遊戲外,GPU 擅長的並行計算可能在未來對其他龐大數據處理的需求都有用武之地,英偉達開始靠投資開疆拓土並尋找可能性。
▲圖源:中國電子報整理
基於此,也誕生了英偉達目前硬件上最核心的兩塊長板,一是通用 GPU(GPGPU),第二則是自動駕駛芯片。目前,英偉達 Orin 系列自動駕駛芯片已經成為除特斯拉以外其他智能車的標配。
這輪投資後,英偉達也最終形成了目前以遊戲顯示、數據中心、汽車作為 “三架馬車” 的有業務路線。
因此,當我們梳理了英偉達近 20 年的投資歷史會發現一個結論:英偉達的投資方向往往代表了未來佈局的方向,且總能通過投資來反哺自身業務。正如其 VP Jonathan Cohen 在最近接受採訪時所説,英偉達正在投資於理解和加速整個生成式人工智能的技術棧。
到這,我們幾乎就能理解,英偉達正欲通過投資培養和尋找未來,同時帶動 AI 生態的其他環節實現 “共同富裕”。
這不只是為了英偉達,更是為了整個生態的繁榮。
野心
當然商業世界中從來不存在温情,英偉達此舉,更是為了鞏固和加強自己在未來 AI 生態中的關鍵地位,成為類似於 Windows 時代的 Intel,才能穿越下個經濟和技術週期。
除了找到與生態結合更準確的方向,英偉達也不滿足於只 “賣卡” 這一項服務,而是想要參與到更多大模型的開發和應用過程當中。
去年,英偉達向 AWS、Azure、谷歌雲等大客户們提議,想要在他們的數據中心租用英偉達芯片支持的服務器,然後把這些服務器溢價轉租給人工智能軟件開發商。
這麼做對於英偉達來説,既可以向大模型企業提供雲服務,又可以避開前期自建 IaaS 層的高昂的投入和時間成本,能夠更快實現商業化。對於英偉達來説,是一筆賣卡之外的額外收入,一本萬利。
▲圖:DGX Cloud 來自英偉達官網
據英偉達官網數據,DGX Cloud(英偉達自建的雲服務)客户可以以每月 3.7 萬美元的價格租用內嵌 8 個 A100 的 GPU 雲服務器,而在 AWS 上,A100 GPU 服務器的費用在每小時 32 美元至 40 美元之間,即每月 2.4 萬 美元至 3 萬美元之間。
我們簡單的算一筆賬,英偉達不僅能將 8 塊 A100 賣給雲廠商,還能賺到每月 7000 美元的差價,按照一塊 A100 五年壽命計算,5 年內英偉達能多賺 42 萬美元。
當然,英偉達也不可能滿足於只賺差價的生意。其真正的目的隱藏在英偉達投資的眾多明星公司中兩個毫不起眼的項目,那是兩家小型雲服務的公司,從體量上根本不能與 AWS、Azure 和 Google 的 GCP 相比。
但英偉達走的是一條 “軟件定義硬件” 的道路,基於雲廠商提供的服務器資源搭配 DGX Cloud,英偉達的工程師利用他們對本公司芯片的瞭解,可以通過軟件對服務器進行調優,同時搭配更多開發工具和軟件解決方案,使其性能優於其他雲廠商提供的服務器。
AI 軟件公司 Anyscale 就曾表示,與傳統雲提供商為客户提供的 GPU 服務器相比,DGX Cloud 的性能 “非常高,而且售價也非常有競爭力”。
顯然,“賣鏟人” 不甘於屈居幕後,而是要走向台前,並在逐漸深入軟件生態,增加多元化收入,在雲廠商的領地裏,再造一個英偉達。
尾聲
英偉達當然明白,時勢造英雄,也能敗英雄。
如果不思考長期戰略,英偉達如今的成功,很像風口上被鼓吹起來的 “胖子”,高光時刻或如過眼雲煙,尤其是當技術車輪繼續滾滾向前,英偉達所面臨的挑戰也越來越多。
比如無論是國內還是國外,從谷歌到阿里、從微軟到百度,各家雲廠商都已經自研了自己的雲端 AI 芯片,未來顯然會逐漸降低對英偉達的依賴。
除此之外,目前 AI 大模型企業對於英偉達 GPU 的需求,本質上還是來源於 Transformer 架構下,大模型對算力的需要。
但隨着 AI 大模型的參數規模越來越大,Transformer 架構下的算力成本也在如指數級上升。從目前的相關報道來看,GPT-4 可能在 1 萬到 2.5 萬張 A100 上進行的訓練,而根據馬斯克的説法,GPT-5 可能需要 3 萬到 5 萬張 H100。
為了解決算力帶來的巨大成本,也有越來越多的頂尖研究機構開始探索比 Transformer 更有效率的架構,以期待降低對算力的依賴。
比如斯坦福和 Mila 的研究人員提出了一種名為 Hyena 的新架構,在達到與 GPT-4 同等準確性的前提下,使用的算力少 100 倍。但目前 Hyena 架構還只能在參數規模較小的情況下使用,不到 GPT-3 的十分之一。
此外,麻省理工學院的兩名研究人員也從提出了 “液態神經網絡”(liquid neural networks)。這種架構不僅速度更快,而且異常穩定,這意味着系統可以處理大量的輸入而不至於失控,且比"Transformer"更加透明且更易於人類理解。
整體上,基礎架構不斷改進,以達到減少對算力依賴的 “命運齒輪” 已經開始轉動。就像《三體》中不知道何時會出現的技術大爆炸一樣,不可預料,也不可輕視。
而英偉達需要做的,就是趕在新的技術範式誕生之前,推動 AI 生態基於 Transformer 和 GPU 建立一個龐大的生態。
這既是英偉達焦慮,也正是英偉達的野心。
本文版權歸屬原作者/機構所有。
當前內容僅代表作者觀點,與本平台立場無關。內容僅供投資者參考,亦不構成任何投資建議。如對本平台提供的內容服務有任何疑問或建議,請聯絡我們。

