Blackwell 出貨在即,CoWoS 總產能持續看增,2025 年增率逾七成

2024-05-30 14:23:00    編輯: TechNews
導讀 TrendForce 研究,NVIDIA Hopper 平台 H100 甫從第一季短缺逐漸紓解,屬同平台新品 H200 第二季後逐漸放量,第三季新平台 Blackwell 即將上市,第四季推展至資料...


TrendForce 研究,NVIDIA Hopper 平台 H100 甫從第一季短缺逐漸紓解,屬同平台新品 H200 第二季後逐漸放量,第三季新平台 Blackwell 即將上市,第四季推展至資料中心客戶。但今年應仍以 Hopper 平台為主,含 H100、H200 等產品線;供應鏈導入 Blackwell 平台進度,預估第四季才會放量,佔整體高階 GPU 比例低於 10% 。

TrendForce表示,屬Blackwell平台的B100等,裸晶尺寸(die size)是H100翻倍,估計台積電(TSMC)今年CoWos總產能年增到150%,隨著2025年成為主流後,CoWos產能年增率達七成,NVIDIA佔比近半。HBM方面,NVIDIA GPU平台往前推進,H100主搭載80GB的HBM3,至2025年B200達搭載288GB的HBM3e,單顆容量成長近四倍。據三大原廠擴展規劃,2025年HBM生產量也將翻倍。

微軟、Meta、AWS首波採用GB200

TrendForce研究,以雲端服務業者(CSP)導入現況看,微軟、Meta、 AWS較積極,2025年GB200方案合計出貨量有機會逾30,000櫃,Google可能傾向先擴大自家TPU AI基礎設施。Blackwell平台備受市場期待,主要是有別於HGX或MGX單台AI伺服器,改推整櫃式,整合自家CPU、GPU、NVLink及InfiniBand等高速網通技術。GB200又分為NVL36及NVL72,每櫃分別搭載達36及72顆GPU,NVL72將為NVIDIA主推組態,但因設計較複雜,年底以NVL36先導入前期試煉, 以求快速進入市場(Time to Market)。

今年Tier-2資料中心及各國政府AI伺服器需求佔比擴大至50%

據NVIDIA FY1Q25資料看,企業客戶、各國主權雲(Sovereign AI)或Tier-2資料中心客群需求也明顯提升。TrendForce表示,受限2023年CoWoS及HBM供應不及,如NVIDIA優先高階GPU供給大型雲端服務業者(Hyper CSP),以全球高階AI伺服器整體市場看來,2023年CSP合計AI伺服器需求量佔比約65%。

至今年上半年GPU供貨短缺獲緩解後,伺服器品牌商如Dell、HPE需求佔比擴大至19%;其他各地區Tier-2資料中心如CoreWeave、特斯拉等,或各國主權雲、超算中心專案等,合計需求佔比將提高至31%,主因AI訓練或應用過程,可能涉及敏感性或資料隱私安全等議題,將來此市場也會扮演驅動AI伺服器出貨成長的關鍵。

(首圖來源:NVIDIA)



關鍵字: , , , , , , ,


標題:Blackwell 出貨在即,CoWoS 總產能持續看增,2025 年增率逾七成

地址:https://www.utechfun.com/post/377370.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡