加速生成式 AI 部署!Supermicro 推三款基於 Nvidia 技術解決方案

2024-03-22 11:39:00    編輯: 林 妤柔
導讀 美超微(Supermicro)宣布推出最新產品組合,加速生成式 AI 部署。美超微指出,其 SuperCluster 解決方案為現今及未來大型語言模型(LLM)硬體基礎設施提供核心建構組件。 Sup...


美超微(Supermicro)宣布推出最新產品組合,加速生成式 AI 部署。美超微指出,其 SuperCluster 解決方案為現今及未來大型語言模型(LLM)硬體基礎設施提供核心建構組件。

Supermicro 三款 SuperCluster 解決方案現已上市。首先是配置 4U 液冷系統的 5 組機櫃,或者 8U 氣冷系統的 9 組機櫃型SuperCluster,都是專為強大 LLM 訓練性能及高度批次大小且大量的 LLM 推論所設計;此外,配備 1U 氣冷 Supermicro NVIDIA MGXTM 系統的第三款 SuperCluster 超級叢集,則針對雲端級推論進行了最佳化。

Supermicro 執行長梁見後表示,在 AI 時代,運算力單位是以叢集衡量,不再只用伺服器數量做為依據。公司全球製造產能已擴大到每月 5,000 台機櫃,能比以往更快地為客戶提供完整生成式 AI 運算叢集。

NVIDIA GPU 產品部門副總裁 Kaustubh Sanghani 則表示,NVIDIA 最新型 GPU、CPU、網路與軟體技術助力能讓系統製造者為全球市場內不同類型的下一代 AI 工作運行實現加速。透過結合基於 Blackwell 架構產品的 NVIDIA 加速運算平台,Supermicro 能提供客戶所需要的前沿伺服器系統,且這些系統可容易地被部署至資料中心。

Supermicro 指出,Supermicro 4U NVIDIA HGX H100/H200 8-GPU 系統透過液冷技術使 8U 氣冷系統運算密度加倍,同時降低能耗量與總體擁有成本(TCO)。這些系統旨在為了支援下一代 NVIDIA 的 Blackwell 架構 GPU。此散熱技術可使一整座資料中心電力成本降低最多 40%,同時節省資料中心佔地空間。同時,也非常適合用於訓練生成式 Al。

另採用 NVIDIA GH200 Grace Hopper Superchip 的 Supermicro NVIDIA MGX™ 系統設計,能打造未來 AI 運算叢集的架構樣式,解決生成式 AI 的關鍵瓶頸:運行高推論批次大小的 LLM 所需的 GPU 記憶體頻寬及容量,進而降低營運成本。具 256 節點的運算叢集能實現雲端級大量推論算力引擎,並易於部署與擴充。

(首圖來源:科技新報)

延伸閱讀:



關鍵字: , ,


標題:加速生成式 AI 部署!Supermicro 推三款基於 Nvidia 技術解決方案

地址:https://www.utechfun.com/post/349442.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡