導讀 隨著生成式人工智慧應用發展,訓練模型也大幅增長,HBM 和 DDR5 等記憶體角色日趨重要,但也使記憶體能耗更突顯。南韓媒體 Chosun Biz 報導,三星和 SK 海力士與學術界展開合作投資下一...
隨著生成式人工智慧應用發展,訓練模型也大幅增長,HBM 和 DDR5 等記憶體角色日趨重要,但也使記憶體能耗更突顯。南韓媒體 Chosun Biz 報導,三星和 SK 海力士與學術界展開合作投資下一代技術,以降低記憶體能耗,提升高效能運算效率。
據統計,DRAM 佔輝達 A100 GPU 為主資料中心平台總耗能約 40%。層數增加後,HBM 記憶體能耗也會跟著增加。而南韓首爾大學推出 DRAM Translation Layer 技術,聲稱可將 DRAM 功耗降低 31.6%,吸引三星青睞。
故三星正與首爾大學合作,以降低記憶體功耗。目前是 Compute Express Link 技術,開發 12 奈米製程 16GB DDR5 DRAM,與上代相較能耗降低 23%。
除了三星,SK 海力士推出 LPDDR5X,將 High-K 金屬柵(HKMG)製程用於行動 DRAM。因 High-K 材料介電常數比傳統 SiON 絕緣膜高約 5 倍,可用相同面積和厚度儲存 5 倍電荷,幫助減少電流外洩。控制外洩電流的基礎上,SK 海力士 LPDDR5X 不但傳輸速度提高 33%,功耗也比上一代降低超過 20%。
市場人士回應,訓練模型對記憶體廠商提出進一步技術要求,廠商也展開競爭,將使記憶體成本逐漸下降,消費者也能從中獲益。
(首圖來源:三星)
關鍵字: , , , ,
標題:人工智慧模型訓練太耗能!三星與 SK 海力士用新技術降低
地址:https://www.utechfun.com/post/238271.html