綜合自投資人六便士。如果 AI 數據中心產業鏈你還想配其他個股,買誰?是服務器暴漲的大牛股超微電腦 SMCI 或者戴爾科技 DELL 嗎,事實上,能卡英偉達脖子的,才更有稀缺性。那麼,英偉達產業鏈上,買哪些票更好?決策的底層邏輯是:誰在卡英偉達產能的脖子,誰是制約英偉達產能瓶頸,誰就是供應端最緊缺的存在,這就是邏輯最好的票。毫無疑問,一是美光、二是台積電。對於芯片產業鏈外行來説,可能理解起來不容易,下面摘取行業資深大博主 @老石談芯(B 站、y 管都有賬號)去年的解讀,説的比較通俗易懂,外行也能看懂:事實上,對於英偉達而言,最大的痛點不是 H100 的銷售,而是供應。老黃的供應也被卡脖子。具體來説,H100 的供應瓶頸有兩個,一個是高帶寬內存hbm的供應,一個是芯片的先進封裝。先看 HBM,它是一種大容量,高數據傳輸帶寬的存儲器,現在是 ai 芯片的標配,大模型和深度學習有着海量的參數,也需要處理海量的數據,所以對於數據的吞吐量和存儲的容量有着極高的要求。你可以把 gpu 想象成是一個城市,數據是要去城市裏上班的打工人。那麼如果像 DDR 這種傳統方法,打工人需要通勤很久的時間才能到達城市,通勤的路也很窄,非常擁擠,但是用 hbm 就像是在城市周邊蓋了很多的高層住宅,然後通過高鐵一批一批的把打工人送到城市裏,極大提升了搬磚的效率。目前全球能夠量產 hbm 公司只有三家,分別是SK 海力士、三星和美光。其中 SK 海力士佔據了 50% 的市場份額,也是目前唯一能夠量產第三代 hbm 的公司,是營業英偉達的獨家供應商,單顆 h100 芯片中包含 5 到 12 個 hbm 堆棧。SK 海力士並不只是賣給英偉達,同樣也會賣給 AMD 和谷歌,這樣一來 hbm 產能自然就成為了 h100 的供應瓶頸。就算有 h100 也不夠,還要把 hbm 和 gpu 芯片封裝在一起,相當於把城市和周圍的這些大樓連接起來。芯片設計有個大的原則,那就是處理和計算數據的地方和存儲數據的地方離得越近,計算效率就越高。所以要想辦法把 gpu 和 hbm 離得越近越好,這就需要用到台積電的 CoWoS封裝技術。從概念上講它是由 Cow 和 WoS 兩部分組成,CoW 是芯片堆疊 Chip-on-wafter,WoS 是把芯片堆疊在基板上 Wafer-on-Substrate,它可以把多個有源芯粒集成到無源的硅中介層上,並通過歸中介層通信,最大的好處就是能減少芯片空間,降低功耗和成本。舉個簡單的例子,這就像是城市和周圍的高層住宅要緊緊的挨在一起,然後在下面挖了 n 條地鐵去通行,效率肯定比在地上鋪設鐵路要高很多,不過挖地鐵是個大工程,在芯片上挖地鐵雕花更是難上加難。特別是中介層去做硅通孔的工藝非常之複雜,能做好的只有台積電。但是這個封裝工藝的成本太高,之前壓根沒什麼人用,所以台積電 2023 年只有 3 萬片的產能,結果 AI 狂潮一來,英偉達瞬間就佔滿了產能。面對供不應求的局面,台積電 2023 年六月啓動了南科的先進封測六廠,7 月下旬宣佈花 900 億新台幣新建先進封裝的晶圓廠,預計 2026 年底完成,量產要到 2027 年第三季度。以上來自 B 站芯片專業博主 @老石談芯 ,對於芯片外行,解讀的非常通俗易懂。----那麼,進入 2024 年,美光的 Hbm3e 產能和台積電的 CoWoS 產能是什麼情況呢?1、美光 HBM3e 市場價值計算:感謝 @Guotie 兄提供的數據:23 年空間:英偉達 H200、B100/B200 採用 HBM3e。H200 出貨量,假設為 100w 張 (H100 系列為 200w 張);B100 出貨量為 50w 張。其中,H200 是 144GB=24GB*6,B100 是 192GB=24GB*8。因此總的 HBM3e 的需求為,100w*144+50w*192=2.4 億 GB,假設單價,HBM3e 為 20 美金,那麼對應的 HBM3e 市場空間為 50 億美金。美光拿 10% 份額就是大約在 5 億美金。24 年空間計算:假設條件,H200 出貨量為 150w 張,B100 系列出貨為 300w 張,HBM 需求量為 150*144+300*192=7.92 億,HBM3e 價格下降 10% 到 18 美金/GB,市場空間為 142 億美金,美光拿到 HBM 拿到 25% 的 HBM3 的份額大約為 35 億美金。基本與之前上面測算營收體量差別不大。2、台積電 CoWoS 產能:這幾天,高盛上調了台積電 2024-2025 CoWoS(Chip on Wafer on Substrate)產能預期,預期從 30.4 萬-44.1 萬上調至 31.9 萬-60 萬,預計到 2025 年產能超預期實現翻番。這意味着 CoWoS 產能將今年同比增 122%、明年同比增 88%,連續兩年翻番。