---
title: "Semianalysis：智能體火爆，CPU 成為新的 “AI 瓶頸”"
type: "News"
locale: "zh-HK"
url: "https://longbridge.com/zh-HK/news/282194357.md"
description: "CPU 已賣空！知名半導體分析機構 SemiAnalysis 首席 Dylan Patel 指出，由於 AI 工作負載的範式正在從簡單的文本生成向複雜的 “智能體（Agents）” 和 “強化學習（RL）” 演進，CPU 正面臨極其嚴重的產能短缺。"
datetime: "2026-04-09T12:25:22.000Z"
locales:
  - [zh-CN](https://longbridge.com/zh-CN/news/282194357.md)
  - [en](https://longbridge.com/en/news/282194357.md)
  - [zh-HK](https://longbridge.com/zh-HK/news/282194357.md)
---

# Semianalysis：智能體火爆，CPU 成為新的 “AI 瓶頸”

隨着 AI 智能體和強化學習（RL）的爆發式增長，原本在 AI 浪潮初期被邊緣化的通用處理器（CPU），正遭遇前所未有的算力擠兑，成為繼 GPU 之後新的基礎設施瓶頸。

近期，隨着各大科技巨頭財報陸續落地，市場對 AI 基礎設施的關注點正在發生微妙轉移。投資者不僅緊盯 GPU 的訂單與交付，更開始尋找 AI 應用落地帶來的新增長極。

4 月 8 日，知名半導體分析機構 SemiAnalysis 首席分析師 Dylan Patel 在一次深度訪談中指出，**由於 AI 工作負載的範式正在從簡單的文本生成向複雜的 “智能體（Agents）” 和 “強化學習（RL）” 演進，CPU 正面臨極其嚴重的產能短缺。**

在 AI 發展的頭幾年，核心算力需求幾乎全被 GPU 佔據。正如 Dylan Patel 所言：“在 AI 的頭幾年，CPU 確實嚴重滯後……負載很輕。你發一個字符串，它回一個字符串，簡單的推理，對 CPU 需求不大。”

然而，這一局面在過去幾個月裏發生了顛覆性的變化，核心驅動力正是以 OpenAI o1 為代表的具備邏輯推理和智能體屬性的新一代模型。

## 智能體與強化學習推升 CPU 需求

模型不再僅僅是 “生成文本”，**而是開始自主執行任務、調用數據庫並自我驗證，這讓 CPU 的工作量呈指數級上升。**

Dylan Patel 給出了一個極具衝擊力的數據：

> “就在最近六個月吧，代碼智能體的收入在很短的時間內從幾十億美金漲到了超過 100 億美金。這些智能體的任務時長也大幅增加：比如 Claude Code 可以連續工作六七個甚至七八個小時……它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。”

與此同時，強化學習的訓練循環變得越來越緊密。未來的 AI 不僅要做數學題，還要在物理模擬器中導航，這要求生成器（模型）生成的每一步都需要在 CPU 集羣上進行高頻驗證。

> “這個循環在過去幾年變得越來越緊……在過去六個月裏，我們看到整個雲市場的 CPU 都跑光了。”

## 雲廠商瘋狂擴容，微軟 “賣空” CPU 已致 GitHub 不穩

市場需求的驟增直接導致了雲端算力的枯竭。**為了滿足頭部 AI 實驗室的需求，大型雲廠商甚至犧牲了其他業務的穩定性。**Dylan Patel 直言：

> “我不知道你們最近有沒有經常和 GitHub 打交道，它真的很不穩定……那是因為微軟把他們所有閒置的 CPU 都賣給了別人。”

這種短缺正在逼迫企業進行極端的工程遷移。據透露，OpenAI 此前幾乎只在 x86 CPU 上運行，但為了獲得算力，他們直接向亞馬遜要存量處理器。

> “亞馬遜有大量的 ARM CPU，於是他們把整個棧都移植了過去——只要能拿到 CPU，到哪裏我都願意移植我的代碼庫。”

關於 CPU 的市場價格，Dylan Patel 説道：

> **“CPU 的利潤率沒那麼高，但正在攀升，因為 Intel 和 AMD 在漲價而且供應緊張。”**

從數據來看，擴容正在全行業上演。“亞馬遜安裝的 CPU 服務器數量，今年比去年同比增長了 3 倍。**到處都沒有容量了。**”

此外，為了不讓昂貴的 GPU 閒置等待，客户必須保持 CPU“熱池” 持續運行，這種商業邏輯進一步放大了對 CPU 的需求。

## 硬件淘金熱蔓延：存儲暴漲，3nm 產能全線告急

算力的短缺已經沿着產業鏈迅速向上傳導，不僅**英特爾和 AMD 發出了漲價通知**，甚至連面向 C 端的 PC 市場也受到波及（如蘋果 Mac mini 脱銷）。

Dylan Patel 用一句極其生動的話形容當下的硬件市場：

> **“通常，出現淘金熱的時候，連拿着壞鎬頭的人也能賣掉他的鎬頭。”**

他補充了市場高度關注的存儲和芯片製造環節的漲價數據：

> **“內存價格在過去一年漲了 4 倍，而且還會繼續漲。現在 SSD 價格也漲了 3-4 倍，而且至少還會再漲 60%。”**

更令市場擔憂的是晶圓代工產能的擠壓。AI 芯片正在吸乾台積電的最先進製程產能：

> “AI 正在買走所有 3 納米和 2 納米的產能……現在所有 AI 芯片都在往 3 納米遷移：AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達的 Rubin——所有這些都在 3 納米上。”

這甚至迫使蘋果、高通等移動端巨頭向下遷移，或者讓英偉達將部分訂單轉移至三星。

**以下是訪談的文字記錄：**

> **主持人：**
> 
> 大家好。很高興請到 Dylan。我第一次看他視頻是一次採訪，他談到：雖然我們有 CPU，但我們要討論 Neo clouds 以及它們為什麼有存在的權利。那對我來説非常有意思，因為今天的主題正是：當智能體（agents）已經到來時，新的基礎設施基元是什麼？你當時把 Neo clouds 與超大規模雲服務商的不同之處，以及它們為什麼應該存在，闡述得非常清楚。能跟我們分享一下嗎？
> 
> **Dylan Patel：**
> 
> 當然。在 AI 時代，超大規模雲服務商的動作有點慢，對吧？谷歌、亞馬遜、微軟，進入 AI 領域都有點慢。於是一批全新的公司冒了出來，而且出現了一個新的低門檻——亞馬遜、微軟、谷歌構建的那些複雜軟件，很多其實並不需要。事實上，那些複雜軟件反而拖慢了 AI 的發展：它們有自定義網絡，但那些網絡對 AI 並不太友好，更關注可靠性和存儲流量，而不是像在網絡上做 all-reduce 之類的事情。
> 
> 所以這些大型雲廠商、超大規模雲服務商有很多東西，Neo clouds 可以直接跳過，然後構建專注、優化的解決方案，並提供更低的成本，因為它們的開銷要低得多——這些 Neo clouds 裏沒有兩萬個谷歌的項目經理坐在會議室裏（儘管有些 Neo clouds 已經開始招聘谷歌的項目經理，從而放慢了速度）。它們在能源上行動迅速，在搭建 GPU 集羣上行動迅速，所以它們能夠開闢出一塊市場。那是早期的那些。自那以後，出現了很多模仿者或追隨者——很多沒有成功，很多正在成功。這實際上就是一場比誰最有能力的戰鬥。
> 
> **主持人：**
> 
> 那麼，是不是所有——我想大概有 200 家左右這樣的 Neo clouds，對嗎？——你看到它們之間有差異化嗎？是不是有些只是在複製最早那批的軟件棧？有些在做別的事情？你有沒有看到這些 Neo clouds 中哪些做法成功、哪些不太成功？
> 
> **Dylan Patel：**
> 
> 是的，有很多因素能區分它們。我們有一個叫"Cluster Max"的東西，給所有 Neo clouds 排名。我們會測試各種東西：可觀測性、可靠性、網絡、安全、管理、編排等等，這些都不一樣。比如，有人會測試他們的 GPU 在用户空閒時是否工作正常——那是主動健康檢查還是被動健康檢查？風扇轉速是否合適？功耗是否正確？節點是否有問題？網絡是否有問題？性能是否達標？有各種各樣的檢查和測試，因為 GPU 是不可靠的。還有 GPU 之上的軟件類型：很多人一開始只做裸金屬，比如微軟與 CoreWeave 的最初合同全是裸金屬——你只需 SSH 進去，微軟自己搭建環境。
> 
> 但隨着發展，人們想要更多：有人想要安裝 Slurm，那很簡單；有人想要安裝 Kubernetes，稍微難一點，但仍然很簡單；有人想要在 Kubernetes 上安裝 Slurm，因為這樣更容易推送作業等等。現在開始有人做託管 Ray 服務之類的東西，用於強化學習（RL）。所以有一類 Neo clouds 在構建這些東西，而另一類 Neo clouds 則説"我不在乎，我只建 GPU，然後以裸金屬方式出租"。成本上也有差異：擁有好軟件的 Neo clouds 往往收費更高，某種程度上又回到了傳統模式——谷歌、微軟、亞馬遜有好軟件，收費也高得多。而且你會看到很多這類雲公司開始嘗試推出推理服務和其他東西。
> 
> **主持人：**
> 
> 類似地，順着這個思路，我就想説到 CPU 了。歷史上，我們有客户要求像 OpenClaw 那樣的東西——有些人説"我需要我的沙箱或 CPU 盒子長時間運行，你能給我一個 5 美元像 Hetzner 那樣的產品嗎？"我説不行，因為那是裸金屬機器，成本很低。但當你提供更大的軟件產品時，成本就會更高，所以很難與之競爭。所以我猜在 Neo clouds 裏也一樣，正如你提到的，裸金屬的銷售成本比那些往軟件方向走的要低。
> 
> 我只是好奇它們為什麼有存在的權利——這有點像我們做的事情的類比。但真正的問題是，你提到了這一點，我們正在思考的方向是：CPU 成了新的瓶頸。以前每個投資人、每個我聊過的人都只談 GPU。現在你出了一份大報告講 CPU，我心裏想"好的，沒錯，謝謝你"。所以你報告裏説今年會是瓶頸。那麼請從 TDR 層面高屋建瓴地告訴我們：為什麼 CPU 現在是瓶頸？你看到了什麼？
> 
> **Dylan Patel：**
> 
> 是的，**在 AI 的頭幾年，CPU 確實嚴重滯後。**它被用於一些存儲、一些檢查點、一些數據預處理和預訓練，但負載很輕。推理方面，模型還不夠好，無法成為智能體——你不能讓它一步步地行動。所以當時沒有能力讓模型去執行動作並把它們串起來，基本上是你發一個字符串，它回一個字符串，簡單的推理，對 CPU 需求不大。
> 
> 但過去幾年——其實不光是過去幾年，比如 Q\* 開始，OpenAI 有那些風波，然後最終 o1 預覽版發佈——説實話那是 15、16 個月前的事了（感覺上久遠得多）。o1 是第一個這類模型。然後湧現了一大批模型。以前人們會做簡單的事，比如用正則表達式檢查模型輸出，看看是否正確，或者做結構化輸出用於函數調用等等。但隨着時間的推移，對模型的檢查變得規模大得多，並且已經完全集成到訓練中——通過強化學習。
> 
> 不再只是用正則表達式，而是用各種分類器；不再只是分類器，而是做代碼單元測試和編譯；再進一步，你運行智能體流程，它實際上去調用數據庫之類的，或者與一個對 CPU 負載很重的環境（如物理模擬或生物模擬）交互。模型輸出內容，然後檢查它——這個環境（強化學習環境）——然後再回去基於它進行訓練。這個循環在過去幾年變得越來越緊。
> 
> **而最近——就説最近六個月吧——代碼智能體的收入在很短的時間內從幾十億美金漲到了超過 100 億美金。這些智能體的任務時長也大幅增加：比如 Claude Code（或類似模型）可以連續工作六七個甚至七八個小時。在這個過程中，它會調用數據庫，調用各種東西（至少我們用了很多 Cron 服務器），反正什麼都做——它可以自己去 ping、去抓取、以智能體方式自主工作。這也需要大量的 CPU。**所以過去六個月這方面也急劇膨脹。再加上強化學習訓練循環變得越來越緊。因此在過去六個月裏，我們看到整個雲市場的 CPU 都跑光了——我不知道你們最近有沒有經常和 GitHub 打交道，它真的很不穩定。
> 
> **主持人：**
> 
> 我想你是今天第三個提到這事的人了。
> 
> **Dylan Patel：**
> 
> 好的。我們一直在檢查 GitHub 的統計數據：宕機多頻繁？提交失敗多頻繁？情況很糟。那是因為微軟把他們所有閒置的 CPU 都賣給了別人——要麼是內部實驗室自己用，但更多的是外部實驗室。**他們和 Anthropic、OpenAI 簽了合同，所以自己幾乎沒有 CPU 剩下了。**
> 
> 我們在很多其他公司也看到了同樣的情況。以前，每個 CPU 服務器對應很多 GPU 服務器，比如 100 兆瓦的 GPU 可能只由 1 兆瓦甚至更少的 CPU 來服務。但現在這個比例正在變得非常接近，無論是對於 RL 訓練還是推理（智能體推理）。然後你就看到所有地方的 CPU 都跑光了。亞馬遜安裝的 CPU 服務器數量，今年比去年同比增長了 3 倍。到處都沒有容量了。**這不僅導致 GitHub 很不穩定，可能其他地方也是。**
> 
> **主持人：**
> 
> 我的意思是，今天我們談論了很多基礎設施相關的事情。每天都能看到某個基礎設施提供商——不管是 GitHub 還是別的什麼（不點名了）——出現宕機，這已經變得很常見了。這可能是 CPU 短缺的原因，也可能是工作負載規模等原因。
> 
> **Dylan Patel：**
> 
> 也可能是所有人的基礎設施代碼都是"vibe coded"（憑感覺亂寫）的。
> 
> **主持人：**
> 
> 對，也可能是所有人的基礎設施代碼都是 vibe coded。我不認為全是，但可能有一部分是。我看到很有意思的是，運行在我們這裏的 CPU 工作負載數量——Daytona 基本上有三個用例：代碼和命令執行（比如類似 cloud code 的東西需要跑在 CPU 上）；還有計算機使用用例，這個我們實際上看到增長非常快。我們今天剛宣佈了 Windows 沙箱，它也跑在 CPU 上。
> 
> 如果你需要一個智能體去處理遺留軟件（比如金融、客服等領域，全都在那裏）。另外正如你所説，強化學習方面，我們有很多通常用 Kubernetes 的人，現在開始用我們。但有趣的是，這些負載的規模和體量極其巨大，而且還在極其快速地增長。而我們是世界上最小的雲。所以我好奇的是：如果我們這麼小的公司都有這麼大的量，那麼在大規模下會是什麼樣子？
> 
> 而且我們遇到過——我想知道你有沒有這方面的洞察——光是 RL，更不用説長時間運行的智能體了（僅就後者而言，我們看到客户進來，其中一個客户在昨天 6 小時內跑了 100 萬個 BCP 工作負載。就一個客户）。那麼有多少客户在做 RL？他們都會需要這個。我不知道你有沒有什麼見解，但我很好奇。
> 
> **Dylan Patel：**
> 
> 我的意思是，有些指標相當驚人——100 萬 vCPU 聽起來很瘋狂。但有些人籤的合同和工作負載的規模甚至比這還要離譜。
> 
> **主持人：**
> 
> 我相信那是因為我們確實很小。
> 
> **Dylan Patel：**
> 
> 對，是這原因。所以我想，當你再看像 Anthropic、OpenAI 這樣的公司時，他們已經完全吃掉了多個雲的全部容量。最近亞馬遜和 OpenAI 交易的一大推動力——是的，OpenAI 想要錢，他們需要算力，但他們也直接去找亞馬遜説"把你的 CPU 給我們"。
> 
> 之前 OpenAI 的棧幾乎只在 x86 CPU 上運行，但亞馬遜有大量的 ARM CPU，於是他們把整個棧都移植了過去——**只要能拿到 CPU，到哪裏我都願意移植我的代碼庫。**這就能看出人們願意投入的工程水平了，因為通常開發者都懶得動，直接去別的地方找容量，但現在別的地方也沒有容量了。
> 
> **主持人：**
> 
> 是的，有意思。我們全是 x86，只有這些。我們目前還沒有 ARM。但除了這兩家，還有 Nvidia 有自己的 CPU，還有其他人也在造自己的 CPU。這些 CPU 之間也有差異。它們都只是通用 CPU 嗎？你可能比我懂得多，我超級好奇。
> 
> **Dylan Patel：**
> 
> 關於 CPU 的類型。
> 
> **主持人：**
> 
> 現在種類太多了。以前基本上只有 x86 和 ARM。現在有了不同類型的 CPU。是因為大家都跑光了，還是它們在某些方面確實更好？有什麼特別的嗎？
> 
> **Dylan Patel：**
> 
> 通常，出現淘金熱的時候，連拿着壞鎬頭的人也能賣掉他的鎬頭。CPU 市場現在非常動態。目前主要是 Intel 和 AMD——我猜你們主要用 Intel 和 AMD 的 CPU。這兩家都説自己完全賣光了，已經向客户發了漲價通知。它們甚至不再互相競爭了，只是想着"我能造多少賣多少"。同樣，亞馬遜有 Graviton CPU，已經發展到第五、第六代了。Nvidia 有 Grace 和 Vera CPU。
> 
> 但之前沒人真正部署過 Grace 獨立 CPU 機箱——Nvidia 為了 PR 做了一些小規模部署，但實際上獨立 CPU 部署非常少。為什麼呢？只是因為它們不夠好。但現在向前看，也許它們的 CPU 變好了，也許捆綁銷售得更好，但更重要的是因為它們有容量（因為其他人都沒容量了），所以它們能在自己的各種 CPU 上拿到更多合同，大概今年晚些時候或明年初開始部署。
> 
> 所以這是一個非常動態的市場。然後微軟和谷歌也開始部署自己的 CPU，而且開始上量。Arm 幾周後要發佈一款 CPU，Meta 會採用，Cloudflare 等幾家公司也會採用。所以會有更多的 ARM 獨立方案，而不只是 Arm 授權 IP 給別家。市場上會出現更多的多樣化——這正是在淘金熱時會發生的。然後我們會看到，當供需缺口逐漸彌合時，到底誰的品質最好、誰能留下來。
> 
> **主持人：**
> 
> 但看起來需求的規模還是會增長。至少我看到的：第一，RL——似乎 RL 大部分是在做後訓練，但現在已經有供應商和公司在推銷並創建實時 RL 的服務。因為你有了一些智能體，你有了一些在後台是智能體的 SaaS，然後它會在一天結束時做 RL，基本上是為了從自己的行為中學習。
> 
> 所以那在增長。另外，這些長時間運行的智能體——如果它們能工作更長時間、解決更多問題，你基本上可以讓它們做更多事情，它們會啓動越來越多的這類智能體，這意味着越來越多的 CPU 盒子。那麼從你的視角看，你理解市場動態，最終可能會收斂，但我感覺在需求縮小之前，它還會變得更寬。
> 
> **Dylan Patel：**
> 
> 是的，完全是這樣。因為最初所有的 RL 都是"來做數學證明"，數學證明對資源需求很低。而且模型（生成器）會生成大量輸出，然後把正確答案（或它認為的答案）發給服務器，服務器去驗證。但隨着時間的推移，不再是那樣了：模型會多次提交，或者在它的智能體過程中多次嘗試編譯，或者多次嘗試做單元測試。這增加了生成器（也就是模型）發送給驗證器的頻率，這個循環越來越緊。隨着我們進入更復雜的 RL，模型實際上會不斷地驗證自己的輸出。
> 
> 比如説，想象一下未來一兩年訓練的模型——比如一個機器人模型，在一個世界模型中驗證：視覺語言模型（VLM）在世界上導航，試圖拿起東西、放下東西。每一步都需要被驗證，而物理模型跑在某個 CPU 集羣上。那需要的 CPU 量會多得瘋狂，遠比你做單元測試或跑數學證明要多。看 o1，它基本只能做數學。再看像 GPT-5.4 或 Opus 4.6 這樣的模型，它們能做智能體軟件。但當我們進入下一階段——不管是什麼——會有能夠理解"我需要繫鞋帶，系的時候鞋帶強度是多少？抗拉強度是多少？"的模型。所有這些都需要計算，因為驗證器只是在生成下一步，但每一步都需要更頻繁地被檢查，而且檢查這一步的計算強度也會隨時間增加。
> 
> **主持人：**
> 
> 但還有另一件事，你可能比我知道得更清楚：GPU 的強度決定了它們能並行處理一定數量的 CPU 盒子。隨着下一代 GPU 的出現，我覺得它們會比現在能夠啓動、管理或處理更多的 CPU，這會給 CPU 帶來另一個壓力。
> 
> **Dylan Patel：**
> 
> 是的，肯定是這樣。GPU 的功耗也在變得更高，所以一個 GPU 隨時間推移會對應越來越多的 CPU 用量。而且 GPU 每一代都變得更貴，而 vCPU 價格持平或略有下降。所以規模確實不同了：一個 Blackwell 對比一個 Rubin，性能提升了 X 倍，價格也提升了 X 倍。
> 
> 而 CPU 呢，你買上一代還是新一代——這一代有 192 個 vCPU，上一代大概是 96 個，所以你有更多的 CPU，但價格上漲的幅度和你獲得的額外 vCPU 數量是成比例的。所以 vCPU 的比例會增長，但成本方向可能也是有利於 CPU 的，但不確定幅度多大。
> 
> **主持人：**
> 
> 是的，另一個壓力——我們在較大客户身上看到過：他們 GPU 有時間配額，他們不希望 GPU 閒置。所以他們寧願付錢給一個熱池來運行 CPU，這樣當 GPU 有任務來時，CPU 是熱的（實際上在工作）。所以他們會——因為我們做的——大多數 CPU 某種程度上是便宜的資源（雖然我們不覺得自己便宜），但對於這個場景來説是便宜的資源。這實際上會消耗更多的 GPU，因為閒置 GPU 的成本太高了。
> 
> **Dylan Patel：**
> 
> 對，這真是一個很有意思的點。商業模式上，沒人——當然有按需 GPU，但比如 Lambda 有 5 萬多塊 GPU，其中只有 4000 塊是按需的，而且總是賣光。所以實際上沒有人真正有按需 GPU。每個人都至少籤長期合同（多月的），大多數情況下是多年的。而 CPU 的使用方式是可以隨時啓停——這就是為什麼大家當初都上雲。但在這些工作負載下，GPU 生成器（跑在 GPU 上的模型）生成一堆東西，發給驗證器。如果驗證器沒有準備好等着，GPU 就在空轉。你已經為 GPU 付了錢，如果你不能在 CPU 那邊瞬時拿到資源，實際上你應該預啓動。你不是在加載模擬器或環境，你是在浪費錢。所以確實如此。
> 
> **主持人：**
> 
> 不僅如此，一旦這些跑起來，你又會啓動另一個熱池，這樣每一次新的迭代都在持續增長。那麼總體來説這意味着什麼？我們跳過了 RAM，沒談內存。以前 GPU 是瓶頸，我們測量過，現在是 CPU。那麼對大多數人來説更切身的是：現在 PC 很難買，因為超級貴。CPU 也會這樣嗎？你剛才提到它們相對便宜且價格持平。市場壓力會推動它們漲價嗎？
> 
> **Dylan Patel：**
> 
> 是的，PC、筆記本電腦、組裝 PC 都很難買到。比如 Apple 的 Mac mini 基本賣光了。我們買了一大批 Mac mini，因為以前用 Excel 和 Windows 的人現在想用 Claude Code，而 OSX 顯然開發環境更好。所以人們買了很多 Mac mini 在部署使用。我覺得整個領域都類似，而數據中心對資源的購買更加缺乏彈性，這也導致價格上漲。GPU 一直很貴，英偉達的利潤率一直在 70% 以上。
> 
> **CPU 的利潤率沒那麼高，但正在攀升，因為 Intel 和 AMD 在漲價而且供應緊張。**內存價格在過去一年漲了 4 倍，而且還會繼續漲。現在 SSD 也漲了，所有資源都在漲：SSD 價格也漲了 3-4 倍，而且至少還會再漲 60%——沒有 DRAM 那麼多，但也很多。所以綜合來看，Intel 和 AMD 的 CPU 產能某種程度上可以在 PC 和數據中心之間轉換，內存和存儲則非常可互換。結果就變成了：去他的普通用户——你得現在買 Mac mini，否則你就永遠脱離不了永久底層階級了，差不多是這種思路。
> 
> **主持人：**
> 
> 最後一個問題，我們時間快到了。不是財務建議，Intel 之前處境非常糟糕，最近開始有起色。但 CPU 需求會把他們拉出困境嗎？
> 
> **Dylan Patel：**
> 
> 他們會好一些，但這並不是説公司得救了——公司估值基於未來現金流。而且有一種可能性是他們會得到 Apple 或其他客户。更有意思的是，不是因為 CPU 需求高到 Intel 能從中獲得一些短期利潤——其他人（AMD、亞馬遜等）會趕上來的，他們會補上自己的產能。更重要的是，AI 正在買走所有 3 納米和 2 納米的產能，幾年內人們將不得不轉向其他方向。比如英偉達收購 Grok，人們編了各種無厘頭理由，一部分是因為他們想要極快的推理，但另一部分是因為 Grok 是用三星製造的——因為台積電那邊沒有 3 納米產能給他們了，他們需要別處流片。
> 
> 如果 AI 真的像我們相信的那樣瘋狂，需求像我們相信的那樣瘋狂，明年會更瘋狂。那麼只要造出任何像樣的芯片就能賣掉——差不多是這種哲學。顯然他們在架構等方面做了更多事情，但同樣的情況也適用於 Apple：台積電告訴 Apple，"嘿，從 3 納米下來吧，快點遷移到 2 納米，我能做。"因為所有 AI 芯片都在 3 納米上，這需要時間。小型移動芯片比大 AI 芯片容易製造。現在所有 AI 芯片都在往 3 納米遷移：AMD 的 MI350 系列、亞馬遜和谷歌的 Trainium 3 和 TPU v7、英偉達下週要發 Rubin——所有這些都在 3 納米上。台積電讓 Apple 下來，讓高通和聯發科下來。這三家公司可能會想"也許我們該用 Intel，因為 Intel 沒有讓我們下來"——但 Intel 做不了啊。所以大家都很難。
> 
> **主持人：**
> 
> 我還有很多問題想問，但我們只剩下 20 秒了。我下一個問題肯定會超時。那就先到這裏，非常感謝你來和我們交流。謝謝！

### 相關股票

- [561980.CN](https://longbridge.com/zh-HK/quote/561980.CN.md)
- [PSI.US](https://longbridge.com/zh-HK/quote/PSI.US.md)
- [588200.CN](https://longbridge.com/zh-HK/quote/588200.CN.md)
- [FTXL.US](https://longbridge.com/zh-HK/quote/FTXL.US.md)
- [NVDL.US](https://longbridge.com/zh-HK/quote/NVDL.US.md)
- [AMUU.US](https://longbridge.com/zh-HK/quote/AMUU.US.md)
- [562820.CN](https://longbridge.com/zh-HK/quote/562820.CN.md)
- [AMDL.US](https://longbridge.com/zh-HK/quote/AMDL.US.md)
- [512480.CN](https://longbridge.com/zh-HK/quote/512480.CN.md)
- [NVDU.US](https://longbridge.com/zh-HK/quote/NVDU.US.md)
- [INTW.US](https://longbridge.com/zh-HK/quote/INTW.US.md)
- [SOXQ.US](https://longbridge.com/zh-HK/quote/SOXQ.US.md)
- [SOXX.US](https://longbridge.com/zh-HK/quote/SOXX.US.md)
- [512760.CN](https://longbridge.com/zh-HK/quote/512760.CN.md)
- [159546.CN](https://longbridge.com/zh-HK/quote/159546.CN.md)
- [NVDA.US](https://longbridge.com/zh-HK/quote/NVDA.US.md)
- [04335.HK](https://longbridge.com/zh-HK/quote/04335.HK.md)
- [NVDX.US](https://longbridge.com/zh-HK/quote/NVDX.US.md)
- [159516.CN](https://longbridge.com/zh-HK/quote/159516.CN.md)
- [SMH.US](https://longbridge.com/zh-HK/quote/SMH.US.md)
- [159558.CN](https://longbridge.com/zh-HK/quote/159558.CN.md)
- [XSD.US](https://longbridge.com/zh-HK/quote/XSD.US.md)

## 相關資訊與研究

- [文曄首季營收 4942 億元超越財測上緣 全年營收拚 2 兆](https://longbridge.com/zh-HK/news/282175817.md)
- [技鋼推出機櫃級解決方案整合 GB300、AMD EPYC 最新平台 搶攻 AI 工廠與高速運算商機](https://longbridge.com/zh-HK/news/282130586.md)
- [英特爾攜手 Google 擴大合作 強攻 AI 資料中心 CPU 佈局](https://longbridge.com/zh-HK/news/282215522.md)
- [三大外資法人看台積電：強勁 AI 需求將支撐多年成長 目標價上看 3,030](https://longbridge.com/zh-HK/news/282045127.md)
- [鴻海連九年獲選全球百大創新機構 創台灣民營企業最佳](https://longbridge.com/zh-HK/news/282169693.md)