--- title: "Semianalysis:智能體火爆,CPU 成為新的 “AI 瓶頸”" type: "News" locale: "zh-HK" url: "https://longbridge.com/zh-HK/news/282194357.md" description: "CPU 已賣空!知名半導體分析機構 SemiAnalysis 首席 Dylan Patel 指出,由於 AI 工作負載的範式正在從簡單的文本生成向複雜的 “智能體(Agents)” 和 “強化學習(RL)” 演進,CPU 正面臨極其嚴重的產能短缺。" datetime: "2026-04-09T12:25:22.000Z" locales: - [zh-CN](https://longbridge.com/zh-CN/news/282194357.md) - [en](https://longbridge.com/en/news/282194357.md) - [zh-HK](https://longbridge.com/zh-HK/news/282194357.md) --- # Semianalysis:智能體火爆,CPU 成為新的 “AI 瓶頸” 隨着 AI 智能體和強化學習(RL)的爆發式增長,原本在 AI 浪潮初期被邊緣化的通用處理器(CPU),正遭遇前所未有的算力擠兑,成為繼 GPU 之後新的基礎設施瓶頸。 近期,隨着各大科技巨頭財報陸續落地,市場對 AI 基礎設施的關注點正在發生微妙轉移。投資者不僅緊盯 GPU 的訂單與交付,更開始尋找 AI 應用落地帶來的新增長極。 4 月 8 日,知名半導體分析機構 SemiAnalysis 首席分析師 Dylan Patel 在一次深度訪談中指出,**由於 AI 工作負載的範式正在從簡單的文本生成向複雜的 “智能體(Agents)” 和 “強化學習(RL)” 演進,CPU 正面臨極其嚴重的產能短缺。** 在 AI 發展的頭幾年,核心算力需求幾乎全被 GPU 佔據。正如 Dylan Patel 所言:“在 AI 的頭幾年,CPU 確實嚴重滯後……負載很輕。你發一個字符串,它回一個字符串,簡單的推理,對 CPU 需求不大。” 然而,這一局面在過去幾個月裏發生了顛覆性的變化,核心驅動力正是以 OpenAI o1 為代表的具備邏輯推理和智能體屬性的新一代模型。 ## 智能體與強化學習推升 CPU 需求 模型不再僅僅是 “生成文本”,**而是開始自主執行任務、調用數據庫並自我驗證,這讓 CPU 的工作量呈指數級上升。** Dylan Patel 給出了一個極具衝擊力的數據: > “就在最近六個月吧,代碼智能體的收入在很短的時間內從幾十億美金漲到了超過 100 億美金。這些智能體的任務時長也大幅增加:比如 Claude Code 可以連續工作六七個甚至七八個小時……它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。” 與此同時,強化學習的訓練循環變得越來越緊密。未來的 AI 不僅要做數學題,還要在物理模擬器中導航,這要求生成器(模型)生成的每一步都需要在 CPU 集羣上進行高頻驗證。 > “這個循環在過去幾年變得越來越緊……在過去六個月裏,我們看到整個雲市場的 CPU 都跑光了。” ## 雲廠商瘋狂擴容,微軟 “賣空” CPU 已致 GitHub 不穩 市場需求的驟增直接導致了雲端算力的枯竭。**為了滿足頭部 AI 實驗室的需求,大型雲廠商甚至犧牲了其他業務的穩定性。**Dylan Patel 直言: > “我不知道你們最近有沒有經常和 GitHub 打交道,它真的很不穩定……那是因為微軟把他們所有閒置的 CPU 都賣給了別人。” 這種短缺正在逼迫企業進行極端的工程遷移。據透露,OpenAI 此前幾乎只在 x86 CPU 上運行,但為了獲得算力,他們直接向亞馬遜要存量處理器。 > “亞馬遜有大量的 ARM CPU,於是他們把整個棧都移植了過去——只要能拿到 CPU,到哪裏我都願意移植我的代碼庫。” 關於 CPU 的市場價格,Dylan Patel 説道: > **“CPU 的利潤率沒那麼高,但正在攀升,因為 Intel 和 AMD 在漲價而且供應緊張。”** 從數據來看,擴容正在全行業上演。“亞馬遜安裝的 CPU 服務器數量,今年比去年同比增長了 3 倍。**到處都沒有容量了。**” 此外,為了不讓昂貴的 GPU 閒置等待,客户必須保持 CPU“熱池” 持續運行,這種商業邏輯進一步放大了對 CPU 的需求。 ## 硬件淘金熱蔓延:存儲暴漲,3nm 產能全線告急 算力的短缺已經沿着產業鏈迅速向上傳導,不僅**英特爾和 AMD 發出了漲價通知**,甚至連面向 C 端的 PC 市場也受到波及(如蘋果 Mac mini 脱銷)。 Dylan Patel 用一句極其生動的話形容當下的硬件市場: > **“通常,出現淘金熱的時候,連拿着壞鎬頭的人也能賣掉他的鎬頭。”** 他補充了市場高度關注的存儲和芯片製造環節的漲價數據: > **“內存價格在過去一年漲了 4 倍,而且還會繼續漲。現在 SSD 價格也漲了 3-4 倍,而且至少還會再漲 60%。”** 更令市場擔憂的是晶圓代工產能的擠壓。AI 芯片正在吸乾台積電的最先進製程產能: > “AI 正在買走所有 3 納米和 2 納米的產能……現在所有 AI 芯片都在往 3 納米遷移:AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達的 Rubin——所有這些都在 3 納米上。” 這甚至迫使蘋果、高通等移動端巨頭向下遷移,或者讓英偉達將部分訂單轉移至三星。 **以下是訪談的文字記錄:** > **主持人:** > > 大家好。很高興請到 Dylan。我第一次看他視頻是一次採訪,他談到:雖然我們有 CPU,但我們要討論 Neo clouds 以及它們為什麼有存在的權利。那對我來説非常有意思,因為今天的主題正是:當智能體(agents)已經到來時,新的基礎設施基元是什麼?你當時把 Neo clouds 與超大規模雲服務商的不同之處,以及它們為什麼應該存在,闡述得非常清楚。能跟我們分享一下嗎? > > **Dylan Patel:** > > 當然。在 AI 時代,超大規模雲服務商的動作有點慢,對吧?谷歌、亞馬遜、微軟,進入 AI 領域都有點慢。於是一批全新的公司冒了出來,而且出現了一個新的低門檻——亞馬遜、微軟、谷歌構建的那些複雜軟件,很多其實並不需要。事實上,那些複雜軟件反而拖慢了 AI 的發展:它們有自定義網絡,但那些網絡對 AI 並不太友好,更關注可靠性和存儲流量,而不是像在網絡上做 all-reduce 之類的事情。 > > 所以這些大型雲廠商、超大規模雲服務商有很多東西,Neo clouds 可以直接跳過,然後構建專注、優化的解決方案,並提供更低的成本,因為它們的開銷要低得多——這些 Neo clouds 裏沒有兩萬個谷歌的項目經理坐在會議室裏(儘管有些 Neo clouds 已經開始招聘谷歌的項目經理,從而放慢了速度)。它們在能源上行動迅速,在搭建 GPU 集羣上行動迅速,所以它們能夠開闢出一塊市場。那是早期的那些。自那以後,出現了很多模仿者或追隨者——很多沒有成功,很多正在成功。這實際上就是一場比誰最有能力的戰鬥。 > > **主持人:** > > 那麼,是不是所有——我想大概有 200 家左右這樣的 Neo clouds,對嗎?——你看到它們之間有差異化嗎?是不是有些只是在複製最早那批的軟件棧?有些在做別的事情?你有沒有看到這些 Neo clouds 中哪些做法成功、哪些不太成功? > > **Dylan Patel:** > > 是的,有很多因素能區分它們。我們有一個叫"Cluster Max"的東西,給所有 Neo clouds 排名。我們會測試各種東西:可觀測性、可靠性、網絡、安全、管理、編排等等,這些都不一樣。比如,有人會測試他們的 GPU 在用户空閒時是否工作正常——那是主動健康檢查還是被動健康檢查?風扇轉速是否合適?功耗是否正確?節點是否有問題?網絡是否有問題?性能是否達標?有各種各樣的檢查和測試,因為 GPU 是不可靠的。還有 GPU 之上的軟件類型:很多人一開始只做裸金屬,比如微軟與 CoreWeave 的最初合同全是裸金屬——你只需 SSH 進去,微軟自己搭建環境。 > > 但隨着發展,人們想要更多:有人想要安裝 Slurm,那很簡單;有人想要安裝 Kubernetes,稍微難一點,但仍然很簡單;有人想要在 Kubernetes 上安裝 Slurm,因為這樣更容易推送作業等等。現在開始有人做託管 Ray 服務之類的東西,用於強化學習(RL)。所以有一類 Neo clouds 在構建這些東西,而另一類 Neo clouds 則説"我不在乎,我只建 GPU,然後以裸金屬方式出租"。成本上也有差異:擁有好軟件的 Neo clouds 往往收費更高,某種程度上又回到了傳統模式——谷歌、微軟、亞馬遜有好軟件,收費也高得多。而且你會看到很多這類雲公司開始嘗試推出推理服務和其他東西。 > > **主持人:** > > 類似地,順着這個思路,我就想説到 CPU 了。歷史上,我們有客户要求像 OpenClaw 那樣的東西——有些人説"我需要我的沙箱或 CPU 盒子長時間運行,你能給我一個 5 美元像 Hetzner 那樣的產品嗎?"我説不行,因為那是裸金屬機器,成本很低。但當你提供更大的軟件產品時,成本就會更高,所以很難與之競爭。所以我猜在 Neo clouds 裏也一樣,正如你提到的,裸金屬的銷售成本比那些往軟件方向走的要低。 > > 我只是好奇它們為什麼有存在的權利——這有點像我們做的事情的類比。但真正的問題是,你提到了這一點,我們正在思考的方向是:CPU 成了新的瓶頸。以前每個投資人、每個我聊過的人都只談 GPU。現在你出了一份大報告講 CPU,我心裏想"好的,沒錯,謝謝你"。所以你報告裏説今年會是瓶頸。那麼請從 TDR 層面高屋建瓴地告訴我們:為什麼 CPU 現在是瓶頸?你看到了什麼? > > **Dylan Patel:** > > 是的,**在 AI 的頭幾年,CPU 確實嚴重滯後。**它被用於一些存儲、一些檢查點、一些數據預處理和預訓練,但負載很輕。推理方面,模型還不夠好,無法成為智能體——你不能讓它一步步地行動。所以當時沒有能力讓模型去執行動作並把它們串起來,基本上是你發一個字符串,它回一個字符串,簡單的推理,對 CPU 需求不大。 > > 但過去幾年——其實不光是過去幾年,比如 Q\* 開始,OpenAI 有那些風波,然後最終 o1 預覽版發佈——説實話那是 15、16 個月前的事了(感覺上久遠得多)。o1 是第一個這類模型。然後湧現了一大批模型。以前人們會做簡單的事,比如用正則表達式檢查模型輸出,看看是否正確,或者做結構化輸出用於函數調用等等。但隨着時間的推移,對模型的檢查變得規模大得多,並且已經完全集成到訓練中——通過強化學習。 > > 不再只是用正則表達式,而是用各種分類器;不再只是分類器,而是做代碼單元測試和編譯;再進一步,你運行智能體流程,它實際上去調用數據庫之類的,或者與一個對 CPU 負載很重的環境(如物理模擬或生物模擬)交互。模型輸出內容,然後檢查它——這個環境(強化學習環境)——然後再回去基於它進行訓練。這個循環在過去幾年變得越來越緊。 > > **而最近——就説最近六個月吧——代碼智能體的收入在很短的時間內從幾十億美金漲到了超過 100 億美金。這些智能體的任務時長也大幅增加:比如 Claude Code(或類似模型)可以連續工作六七個甚至七八個小時。在這個過程中,它會調用數據庫,調用各種東西(至少我們用了很多 Cron 服務器),反正什麼都做——它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。**所以過去六個月這方面也急劇膨脹。再加上強化學習訓練循環變得越來越緊。因此在過去六個月裏,我們看到整個雲市場的 CPU 都跑光了——我不知道你們最近有沒有經常和 GitHub 打交道,它真的很不穩定。 > > **主持人:** > > 我想你是今天第三個提到這事的人了。 > > **Dylan Patel:** > > 好的。我們一直在檢查 GitHub 的統計數據:宕機多頻繁?提交失敗多頻繁?情況很糟。那是因為微軟把他們所有閒置的 CPU 都賣給了別人——要麼是內部實驗室自己用,但更多的是外部實驗室。**他們和 Anthropic、OpenAI 簽了合同,所以自己幾乎沒有 CPU 剩下了。** > > 我們在很多其他公司也看到了同樣的情況。以前,每個 CPU 服務器對應很多 GPU 服務器,比如 100 兆瓦的 GPU 可能只由 1 兆瓦甚至更少的 CPU 來服務。但現在這個比例正在變得非常接近,無論是對於 RL 訓練還是推理(智能體推理)。然後你就看到所有地方的 CPU 都跑光了。亞馬遜安裝的 CPU 服務器數量,今年比去年同比增長了 3 倍。到處都沒有容量了。**這不僅導致 GitHub 很不穩定,可能其他地方也是。** > > **主持人:** > > 我的意思是,今天我們談論了很多基礎設施相關的事情。每天都能看到某個基礎設施提供商——不管是 GitHub 還是別的什麼(不點名了)——出現宕機,這已經變得很常見了。這可能是 CPU 短缺的原因,也可能是工作負載規模等原因。 > > **Dylan Patel:** > > 也可能是所有人的基礎設施代碼都是"vibe coded"(憑感覺亂寫)的。 > > **主持人:** > > 對,也可能是所有人的基礎設施代碼都是 vibe coded。我不認為全是,但可能有一部分是。我看到很有意思的是,運行在我們這裏的 CPU 工作負載數量——Daytona 基本上有三個用例:代碼和命令執行(比如類似 cloud code 的東西需要跑在 CPU 上);還有計算機使用用例,這個我們實際上看到增長非常快。我們今天剛宣佈了 Windows 沙箱,它也跑在 CPU 上。 > > 如果你需要一個智能體去處理遺留軟件(比如金融、客服等領域,全都在那裏)。另外正如你所説,強化學習方面,我們有很多通常用 Kubernetes 的人,現在開始用我們。但有趣的是,這些負載的規模和體量極其巨大,而且還在極其快速地增長。而我們是世界上最小的雲。所以我好奇的是:如果我們這麼小的公司都有這麼大的量,那麼在大規模下會是什麼樣子? > > 而且我們遇到過——我想知道你有沒有這方面的洞察——光是 RL,更不用説長時間運行的智能體了(僅就後者而言,我們看到客户進來,其中一個客户在昨天 6 小時內跑了 100 萬個 BCP 工作負載。就一個客户)。那麼有多少客户在做 RL?他們都會需要這個。我不知道你有沒有什麼見解,但我很好奇。 > > **Dylan Patel:** > > 我的意思是,有些指標相當驚人——100 萬 vCPU 聽起來很瘋狂。但有些人籤的合同和工作負載的規模甚至比這還要離譜。 > > **主持人:** > > 我相信那是因為我們確實很小。 > > **Dylan Patel:** > > 對,是這原因。所以我想,當你再看像 Anthropic、OpenAI 這樣的公司時,他們已經完全吃掉了多個雲的全部容量。最近亞馬遜和 OpenAI 交易的一大推動力——是的,OpenAI 想要錢,他們需要算力,但他們也直接去找亞馬遜説"把你的 CPU 給我們"。 > > 之前 OpenAI 的棧幾乎只在 x86 CPU 上運行,但亞馬遜有大量的 ARM CPU,於是他們把整個棧都移植了過去——**只要能拿到 CPU,到哪裏我都願意移植我的代碼庫。**這就能看出人們願意投入的工程水平了,因為通常開發者都懶得動,直接去別的地方找容量,但現在別的地方也沒有容量了。 > > **主持人:** > > 是的,有意思。我們全是 x86,只有這些。我們目前還沒有 ARM。但除了這兩家,還有 Nvidia 有自己的 CPU,還有其他人也在造自己的 CPU。這些 CPU 之間也有差異。它們都只是通用 CPU 嗎?你可能比我懂得多,我超級好奇。 > > **Dylan Patel:** > > 關於 CPU 的類型。 > > **主持人:** > > 現在種類太多了。以前基本上只有 x86 和 ARM。現在有了不同類型的 CPU。是因為大家都跑光了,還是它們在某些方面確實更好?有什麼特別的嗎? > > **Dylan Patel:** > > 通常,出現淘金熱的時候,連拿着壞鎬頭的人也能賣掉他的鎬頭。CPU 市場現在非常動態。目前主要是 Intel 和 AMD——我猜你們主要用 Intel 和 AMD 的 CPU。這兩家都説自己完全賣光了,已經向客户發了漲價通知。它們甚至不再互相競爭了,只是想着"我能造多少賣多少"。同樣,亞馬遜有 Graviton CPU,已經發展到第五、第六代了。Nvidia 有 Grace 和 Vera CPU。 > > 但之前沒人真正部署過 Grace 獨立 CPU 機箱——Nvidia 為了 PR 做了一些小規模部署,但實際上獨立 CPU 部署非常少。為什麼呢?只是因為它們不夠好。但現在向前看,也許它們的 CPU 變好了,也許捆綁銷售得更好,但更重要的是因為它們有容量(因為其他人都沒容量了),所以它們能在自己的各種 CPU 上拿到更多合同,大概今年晚些時候或明年初開始部署。 > > 所以這是一個非常動態的市場。然後微軟和谷歌也開始部署自己的 CPU,而且開始上量。Arm 幾周後要發佈一款 CPU,Meta 會採用,Cloudflare 等幾家公司也會採用。所以會有更多的 ARM 獨立方案,而不只是 Arm 授權 IP 給別家。市場上會出現更多的多樣化——這正是在淘金熱時會發生的。然後我們會看到,當供需缺口逐漸彌合時,到底誰的品質最好、誰能留下來。 > > **主持人:** > > 但看起來需求的規模還是會增長。至少我看到的:第一,RL——似乎 RL 大部分是在做後訓練,但現在已經有供應商和公司在推銷並創建實時 RL 的服務。因為你有了一些智能體,你有了一些在後台是智能體的 SaaS,然後它會在一天結束時做 RL,基本上是為了從自己的行為中學習。 > > 所以那在增長。另外,這些長時間運行的智能體——如果它們能工作更長時間、解決更多問題,你基本上可以讓它們做更多事情,它們會啓動越來越多的這類智能體,這意味着越來越多的 CPU 盒子。那麼從你的視角看,你理解市場動態,最終可能會收斂,但我感覺在需求縮小之前,它還會變得更寬。 > > **Dylan Patel:** > > 是的,完全是這樣。因為最初所有的 RL 都是"來做數學證明",數學證明對資源需求很低。而且模型(生成器)會生成大量輸出,然後把正確答案(或它認為的答案)發給服務器,服務器去驗證。但隨着時間的推移,不再是那樣了:模型會多次提交,或者在它的智能體過程中多次嘗試編譯,或者多次嘗試做單元測試。這增加了生成器(也就是模型)發送給驗證器的頻率,這個循環越來越緊。隨着我們進入更復雜的 RL,模型實際上會不斷地驗證自己的輸出。 > > 比如説,想象一下未來一兩年訓練的模型——比如一個機器人模型,在一個世界模型中驗證:視覺語言模型(VLM)在世界上導航,試圖拿起東西、放下東西。每一步都需要被驗證,而物理模型跑在某個 CPU 集羣上。那需要的 CPU 量會多得瘋狂,遠比你做單元測試或跑數學證明要多。看 o1,它基本只能做數學。再看像 GPT-5.4 或 Opus 4.6 這樣的模型,它們能做智能體軟件。但當我們進入下一階段——不管是什麼——會有能夠理解"我需要繫鞋帶,系的時候鞋帶強度是多少?抗拉強度是多少?"的模型。所有這些都需要計算,因為驗證器只是在生成下一步,但每一步都需要更頻繁地被檢查,而且檢查這一步的計算強度也會隨時間增加。 > > **主持人:** > > 但還有另一件事,你可能比我知道得更清楚:GPU 的強度決定了它們能並行處理一定數量的 CPU 盒子。隨着下一代 GPU 的出現,我覺得它們會比現在能夠啓動、管理或處理更多的 CPU,這會給 CPU 帶來另一個壓力。 > > **Dylan Patel:** > > 是的,肯定是這樣。GPU 的功耗也在變得更高,所以一個 GPU 隨時間推移會對應越來越多的 CPU 用量。而且 GPU 每一代都變得更貴,而 vCPU 價格持平或略有下降。所以規模確實不同了:一個 Blackwell 對比一個 Rubin,性能提升了 X 倍,價格也提升了 X 倍。 > > 而 CPU 呢,你買上一代還是新一代——這一代有 192 個 vCPU,上一代大概是 96 個,所以你有更多的 CPU,但價格上漲的幅度和你獲得的額外 vCPU 數量是成比例的。所以 vCPU 的比例會增長,但成本方向可能也是有利於 CPU 的,但不確定幅度多大。 > > **主持人:** > > 是的,另一個壓力——我們在較大客户身上看到過:他們 GPU 有時間配額,他們不希望 GPU 閒置。所以他們寧願付錢給一個熱池來運行 CPU,這樣當 GPU 有任務來時,CPU 是熱的(實際上在工作)。所以他們會——因為我們做的——大多數 CPU 某種程度上是便宜的資源(雖然我們不覺得自己便宜),但對於這個場景來説是便宜的資源。這實際上會消耗更多的 GPU,因為閒置 GPU 的成本太高了。 > > **Dylan Patel:** > > 對,這真是一個很有意思的點。商業模式上,沒人——當然有按需 GPU,但比如 Lambda 有 5 萬多塊 GPU,其中只有 4000 塊是按需的,而且總是賣光。所以實際上沒有人真正有按需 GPU。每個人都至少籤長期合同(多月的),大多數情況下是多年的。而 CPU 的使用方式是可以隨時啓停——這就是為什麼大家當初都上雲。但在這些工作負載下,GPU 生成器(跑在 GPU 上的模型)生成一堆東西,發給驗證器。如果驗證器沒有準備好等着,GPU 就在空轉。你已經為 GPU 付了錢,如果你不能在 CPU 那邊瞬時拿到資源,實際上你應該預啓動。你不是在加載模擬器或環境,你是在浪費錢。所以確實如此。 > > **主持人:** > > 不僅如此,一旦這些跑起來,你又會啓動另一個熱池,這樣每一次新的迭代都在持續增長。那麼總體來説這意味着什麼?我們跳過了 RAM,沒談內存。以前 GPU 是瓶頸,我們測量過,現在是 CPU。那麼對大多數人來説更切身的是:現在 PC 很難買,因為超級貴。CPU 也會這樣嗎?你剛才提到它們相對便宜且價格持平。市場壓力會推動它們漲價嗎? > > **Dylan Patel:** > > 是的,PC、筆記本電腦、組裝 PC 都很難買到。比如 Apple 的 Mac mini 基本賣光了。我們買了一大批 Mac mini,因為以前用 Excel 和 Windows 的人現在想用 Claude Code,而 OSX 顯然開發環境更好。所以人們買了很多 Mac mini 在部署使用。我覺得整個領域都類似,而數據中心對資源的購買更加缺乏彈性,這也導致價格上漲。GPU 一直很貴,英偉達的利潤率一直在 70% 以上。 > > **CPU 的利潤率沒那麼高,但正在攀升,因為 Intel 和 AMD 在漲價而且供應緊張。**內存價格在過去一年漲了 4 倍,而且還會繼續漲。現在 SSD 也漲了,所有資源都在漲:SSD 價格也漲了 3-4 倍,而且至少還會再漲 60%——沒有 DRAM 那麼多,但也很多。所以綜合來看,Intel 和 AMD 的 CPU 產能某種程度上可以在 PC 和數據中心之間轉換,內存和存儲則非常可互換。結果就變成了:去他的普通用户——你得現在買 Mac mini,否則你就永遠脱離不了永久底層階級了,差不多是這種思路。 > > **主持人:** > > 最後一個問題,我們時間快到了。不是財務建議,Intel 之前處境非常糟糕,最近開始有起色。但 CPU 需求會把他們拉出困境嗎? > > **Dylan Patel:** > > 他們會好一些,但這並不是説公司得救了——公司估值基於未來現金流。而且有一種可能性是他們會得到 Apple 或其他客户。更有意思的是,不是因為 CPU 需求高到 Intel 能從中獲得一些短期利潤——其他人(AMD、亞馬遜等)會趕上來的,他們會補上自己的產能。更重要的是,AI 正在買走所有 3 納米和 2 納米的產能,幾年內人們將不得不轉向其他方向。比如英偉達收購 Grok,人們編了各種無厘頭理由,一部分是因為他們想要極快的推理,但另一部分是因為 Grok 是用三星製造的——因為台積電那邊沒有 3 納米產能給他們了,他們需要別處流片。 > > 如果 AI 真的像我們相信的那樣瘋狂,需求像我們相信的那樣瘋狂,明年會更瘋狂。那麼只要造出任何像樣的芯片就能賣掉——差不多是這種哲學。顯然他們在架構等方面做了更多事情,但同樣的情況也適用於 Apple:台積電告訴 Apple,"嘿,從 3 納米下來吧,快點遷移到 2 納米,我能做。"因為所有 AI 芯片都在 3 納米上,這需要時間。小型移動芯片比大 AI 芯片容易製造。現在所有 AI 芯片都在往 3 納米遷移:AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達下週要發 Rubin——所有這些都在 3 納米上。台積電讓 Apple 下來,讓高通和聯發科下來。這三家公司可能會想"也許我們該用 Intel,因為 Intel 沒有讓我們下來"——但 Intel 做不了啊。所以大家都很難。 > > **主持人:** > > 我還有很多問題想問,但我們只剩下 20 秒了。我下一個問題肯定會超時。那就先到這裏,非常感謝你來和我們交流。謝謝! ### 相關股票 - [561980.CN](https://longbridge.com/zh-HK/quote/561980.CN.md) - [PSI.US](https://longbridge.com/zh-HK/quote/PSI.US.md) - [588200.CN](https://longbridge.com/zh-HK/quote/588200.CN.md) - [FTXL.US](https://longbridge.com/zh-HK/quote/FTXL.US.md) - [NVDL.US](https://longbridge.com/zh-HK/quote/NVDL.US.md) - [AMUU.US](https://longbridge.com/zh-HK/quote/AMUU.US.md) - [562820.CN](https://longbridge.com/zh-HK/quote/562820.CN.md) - [AMDL.US](https://longbridge.com/zh-HK/quote/AMDL.US.md) - [512480.CN](https://longbridge.com/zh-HK/quote/512480.CN.md) - [NVDU.US](https://longbridge.com/zh-HK/quote/NVDU.US.md) - [INTW.US](https://longbridge.com/zh-HK/quote/INTW.US.md) - [SOXQ.US](https://longbridge.com/zh-HK/quote/SOXQ.US.md) - [SOXX.US](https://longbridge.com/zh-HK/quote/SOXX.US.md) - [512760.CN](https://longbridge.com/zh-HK/quote/512760.CN.md) - [159546.CN](https://longbridge.com/zh-HK/quote/159546.CN.md) - [NVDA.US](https://longbridge.com/zh-HK/quote/NVDA.US.md) - [04335.HK](https://longbridge.com/zh-HK/quote/04335.HK.md) - [NVDX.US](https://longbridge.com/zh-HK/quote/NVDX.US.md) - [159516.CN](https://longbridge.com/zh-HK/quote/159516.CN.md) - [SMH.US](https://longbridge.com/zh-HK/quote/SMH.US.md) - [159558.CN](https://longbridge.com/zh-HK/quote/159558.CN.md) - [XSD.US](https://longbridge.com/zh-HK/quote/XSD.US.md) ## 相關資訊與研究 - [文曄首季營收 4942 億元超越財測上緣 全年營收拚 2 兆](https://longbridge.com/zh-HK/news/282175817.md) - [技鋼推出機櫃級解決方案整合 GB300、AMD EPYC 最新平台 搶攻 AI 工廠與高速運算商機](https://longbridge.com/zh-HK/news/282130586.md) - [英特爾攜手 Google 擴大合作 強攻 AI 資料中心 CPU 佈局](https://longbridge.com/zh-HK/news/282215522.md) - [三大外資法人看台積電:強勁 AI 需求將支撐多年成長 目標價上看 3,030](https://longbridge.com/zh-HK/news/282045127.md) - [鴻海連九年獲選全球百大創新機構 創台灣民營企業最佳](https://longbridge.com/zh-HK/news/282169693.md)