Jump to content
Main menu
Main menu
move to sidebar
hide
Navigation
Main page
Recent changes
Random page
freem
Search
Search
Appearance
Create account
Log in
Personal tools
Create account
Log in
Pages for logged out editors
learn more
Contributions
Talk
Editing
Openai/6925c674-3858-8009-852a-bd8fdd5679ae
(section)
Add languages
Page
Discussion
English
Read
Edit
Edit source
View history
Tools
Tools
move to sidebar
hide
Actions
Read
Edit
Edit source
View history
General
What links here
Related changes
Special pages
Page information
Appearance
move to sidebar
hide
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
=== Assistant: 你講的這個邏輯:「Google 靠 TPU 做出最強 LLM ⇒ GPU 沒那麼重要 ⇒ NVDA 要修正估值」,有一部分是真的,但如果推到「GPU 需求要崩」就有點太直線外推了。 === 你講的這個邏輯:「Google 靠 TPU 做出最強 LLM ⇒ GPU 沒那麼重要 ⇒ NVDA 要修正估值」,有一部分是真的,但如果推到「GPU 需求要崩」就有點太直線外推了。 我拆開來講: ==== - Google 的 Gemini 2.x 系列(你說的「3」可以理解成更新一代 SOTA)確實是主要在自家 TPU Pod 上訓練與推論,像新一代 Trillium / 之後的 Ironwood 等,效能、效能/瓦數都比前代大幅提升,明講是為 LLM / Gemini 這類模型設計的。TechNews 科技新報<ref>{{cite web|title=TechNews 科技新報|url=https://technews.tw/2025/01/15/google-trillium-tpu-unlocks-more-capabilities/|publisher=TechNews 科技新報|date=2025-01-15|access-date=2025-11-26}}</ref> ==== * Google 也公開強調:TPU Pod 是支撐 Gemini 模型與 Gemma 等開源模型訓練/推論的關鍵基礎設施,並且開放在 Vertex AI 上給客戶用。Google Cloud<ref>{{cite web|title=Google Cloud|url=https://cloud.google.com/vertex-ai/generative-ai/docs/model-garden/deploy-and-inference-tutorial-tpu?hl=zh-tw|publisher=Google Cloud|access-date=2025-11-26}}</ref> * 同一時間,NVIDIA 剛公布的財報還是在爆炸成長:單季營收 570 億美元,其中約 512 億來自資料中心(AI GPU 為主),且對下季指引繼續上調、Blackwell 世代被 CEO 直接形容為「賣到缺貨」。tecknexus.com<ref>{{cite web|title=tecknexus.com|url=https://tecknexus.com/nvidia-57b-revenue-fuels-ai-infrastructure-boom/|publisher=tecknexus.com|access-date=2025-11-26}}</ref> 所以現在的圖像是: : ==== ### ==== # Google 自己的 GPU 依賴度,確實會被 TPU 吃掉一部分 - 如果 TPU 在 Google 內部的「每 Token 成本」+ 能效顯著優於 GPU,那麼 Google 把更多訓練/推論轉去 TPU 是理性選擇。 - 對 NVIDIA 來說,Google 這個客戶的「理論最大需求」下修,市場會拿來打折估值,這是合理的反應。 # 其他 hyperscalers 也都在搞自家晶片,這是系統性壓力,不只 TPU - AWS:Trainium / Inferentia - Microsoft:Maia / Cobalt - Meta:自研加速器 - 咨詢機構預估:到 2030 年,這些「自家 AI ASIC」在資料中心 AI 加速器裡的份額,可能上看 15–20%,也就是從原本幾乎全靠 NVIDIA 的世界,變成至少有一塊內需被自家晶片吃掉。Kearney<ref>{{cite web|title=Kearney|url=https://www.kearney.com/industry/technology/article/breaking-the-gpu-stronghold-emerging-competition-in-ai-infrastructure|publisher=kearney.com|access-date=2025-11-26}}</ref> 這些加起來,會讓市場把 NVIDIA 從「幾乎壟斷 AI 算力」的 story,調成「仍然是最大玩家,但份額慢慢被稀釋」,對 估值倍數 一定有壓力。 ===== (1)TPU 只直接影響「願意把 workload 鎖在 Google 生態」的那一圈人 ===== TPU ≠ 任意地方都買得到的白牌卡,它本質比較像: : * 想自建機房、做多雲、或現在已經 heavy 在 AWS / Azure 的客戶,不會因為「Gemini 很強」就突然說:好,我全部轉去 TPU。 * 他們要嘛: - 繼續瘋狂買 NVIDIA, - 要嘛等自家雲的 ASIC 成熟(Trainium / Maia), - 或者用一些新創 ASIC 方案。 → 這代表:Google 用 TPU 拿到 SOTA,並不直接等於「全球 GPU 需求下滑」,只等於「Google 這一塊的 GPU 天花板下降」。 (2)份額掉 vs. 大餅變多,哪個比較快? 就算你假設: * NVIDIA AI 加速器市佔,從 90% 降到 70–75%,被 TPU / Trainium / Maia 等吃掉一部分,巴倫周刊<ref>{{cite web|title=巴倫周刊|url=https://www.barrons.com/articles/nvidia-stock-ai-chip-revenue-98dfccf1|publisher=barrons.com|access-date=2025-11-26}}</ref> * 但同一時間: - 全世界在 AI 上的 CapEx 還在爆炸成長 - xAI 之類的公司喊的目標是 5 年內相當於 5,000 萬顆 H100 等效的算力需求等級,這不是開玩笑的規模。Tom's Hardware<ref>{{cite web|title=Tom's Hardware|url=https://www.tomshardware.com/tech-industry/artificial-intelligence/elon-musk-says-xai-is-targeting-50-million-h100-equivalent-ai-gpus-in-five-years-230k-gpus-including-30k-gb200s-already-reportedly-operational-for-training-grok|publisher=Tom's Hardware|access-date=2025-11-26}}</ref> 那產生的效果可能是: : 對股價來說,這會從「故事無敵爽」→「故事還不錯但沒有之前那麼神」, 是 估值倍數下修 的邏輯,不是「需求崩盤」的邏輯。 (3)TPU 強不代表「GPU 不重要」,只是代表「GPU 不是唯一選項」 多份報告/分析都提到: * TPUs 在某些 workload(尤其是 Google 自己堆好的 TensorFlow/JAX/Pathways + 大規模 LLM)上,perf/watt 和 cost/token 真的優於一般 GPU。CloudOptimo<ref>{{cite web|title=CloudOptimo|url=https://www.cloudoptimo.com/blog/tpu-vs-gpu-what-is-the-difference-in-2025/|publisher=cloudoptimo.com|access-date=2025-11-26}}</ref> * 但 GPU 還是有: - 通用性(不只 LLM,還有視覺、科學計算、各種雜七雜八) - 生態(CUDA、各種框架、工具、第三方庫) - 客戶可以買來自己插機櫃,不用一定選某家雲。 所以未來比較像: : ==== 用你常用的 EV/機率語言來說,我會這樣看: ==== ===== - 「NVIDIA 永遠 80–90% 以上市佔」機率:被當成 70–80% ===== * 「每年 AI CapEx > 想像中的線性」機率:被當成 70–80% * 兩個故事疊在一起,股價就 price in 成「壟斷級別 + 超級成長」 ===== - 「市佔長期維持 70–75% 左右」的 base case,市場開始認真考慮 ===== * 「雲端自研晶片份額拉到 15–20%」變成共識情境,而不是邊緣風險Kearney<ref>{{cite web|title=Kearney|url=https://www.kearney.com/industry/technology/article/breaking-the-gpu-stronghold-emerging-competition-in-ai-infrastructure|publisher=kearney.com|access-date=2025-11-26}}</ref> → 這對 估值倍數 一定有影響, 但對 絕對獲利成長,要看: * AI 總算力需求的成長率會不會像現在這樣瘋 * NVIDIA 能不能在: - 軟體(CUDA、NIM、推論平台) - 網路/交換器/完整系統(Blackwell 平台、NVLink、Spectrum-X) 上多收一層「訂閱 / 平台錢」,把硬體競爭壓力部分吃回來。S&P Global<ref>{{cite web|title=S&P Global|url=https://www.spglobal.com/ratings/en/regulatory/article/-/view/type/HTML/id/3463382|publisher=S&P Global|access-date=2025-11-26}}</ref> ==== 我會幫你總結成一句話: ==== : 所以如果你是在想: * 要不要因為 TPU 這件事就直接唱衰整個 GPU 需求? → 我覺得太過頭了,數據目前完全看不到「需求下降」,只看到「壟斷敘事被稀釋」。 * 要不要因為這件事調整對 NVDA 的合理倍數? → 這就有道理了:如果你原本用的是「類壟斷成長股」的 PE / PS 假設, 現在改成「市佔高但會被慢慢稀釋的大藍籌成長股」, 估值下修是合理的思路。 如果你願意,我可以幫你做一個小表: * 橫軸:自研 ASIC 市佔 0 / 10 / 20 / 30% * 縱軸:AI 總算力 TAM 成長(年複合 20 / 30 / 40%) * 算出在不同情境下,NVIDIA AI 收入成長率 & 理論合理 PS 區間 讓你有一個「情境樹」而不是被單一新聞情緒牽著走。
Summary:
Please note that all contributions to freem are considered to be released under the Creative Commons Attribution-ShareAlike 4.0 (see
Freem:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)