AI 需求持續看漲,2023 年全球 AI 伺服器出貨量年增近四成

2023-05-29 15:33:00    編輯: TechNews
導讀 AI 伺服器及 AI 晶片需求同步看漲,TrendForce 預估 2023 年 AI 伺服器(含搭載GPU、FPGA、ASIC 等)出貨量近 120 萬台,年增 38.4%,佔整體伺服器出貨量近 ...


AI 伺服器及 AI 晶片需求同步看漲,TrendForce 預估 2023 年 AI 伺服器(含搭載GPU、FPGA、ASIC 等)出貨量近 120 萬台,年增 38.4%,佔整體伺服器出貨量近 9%,至 2026 年佔 15%,同步上修 2022~2026 年 AI 伺服器出貨量年複合成長率至 22%。AI 晶片 2023 年出貨量成長 46%。

TrendForce表示,NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%~70%,其次為雲端業者自研AISC晶片,市佔率逾20%。觀察NVIDIA市佔率高的主因有三:一,不論美系或中系雲端服務業者(CSP),除了採購NVIDIA A100與A800,下半年需求也陸續導入H100與H800,尤其新機種H100與H800平均銷售單價約A100與A800的2~2.5倍,加上NVIDIA積極銷售自家整機解決方案。

二,高階GPU A100及H100高獲利模式也是關鍵,旗下產品AI伺服器市場已擁有主導權優勢,TrendForce研究,H100本身價差也依買方採購規模,會產生近5千美元差距。

三,下半年ChatBOT及AI運算風潮將持續滲透各專業領域(雲端/電商服務、智慧製造、金融保險、 智慧醫療及智慧駕駛輔助等)市場,同步帶動每台搭配4~8張GPU的雲端AI,以及每台搭載2~4張GPU的邊緣AI伺服器應用需求漸增,今年搭載A100及H100的AI伺服器出貨量年增率將逾五成 。

此外,從高階GPU搭載HBM看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,傳輸速度也較HBM2e快,提升整體AI伺服器系統運算效能。隨高階GPU如NVIDIA A100、H100;AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce預估2023年HBM需求量年增58%,2024年有望再成長約30%。

(首圖來源:shutterstock)



關鍵字: , , , ,


標題:AI 需求持續看漲,2023 年全球 AI 伺服器出貨量年增近四成

地址:https://www.utechfun.com/post/218701.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡