記憶體大廠華邦電宣布推出 CUBE (客製化超高頻寬元件) 新記憶體解決方案,透過大幅優化記憶體技術,展現高效能的邊緣 AI 運算能力,幫助客戶在主流應用場景中達成邊緣 AI 計算的應用。
華邦電指出,CUBE 增強了前端 3D 結構的性能,例如 chip-on-wafer(CoW)和 wafer-on-wafer(WoW),以及後端 2.5D/3D chip on Si-interposer 的基板和扇出( Fan out)解決方案。而且 CUBE 專為滿足邊緣 AI 運算裝置不斷增長的需求而設計,能利用 3D 堆疊技術並結合異質鍵合技術以提供高頻寬低功耗的單顆 256Mb 至 8Gb 記憶體。除此之外,CUBE 還能利用 3D 堆疊技術加強頻寬降低資料傳輸時所需的電力。
華邦電表示,CUBE 架構讓 AI 部署產生了轉變,並且我們相信,雲 AI 和邊緣 AI 的整合將會帶領 AI 發展至下一階段。因此,華邦電正在透過 CUBE 解鎖全新可能,並且為強大的邊緣 AI 設備提高記憶體性能及優化成本。而 CUBE 的推出是華邦電實現跨平台與介面部署的重要一步。CUBE 適用於穿戴設備、邊緣伺服器設備、監控設備、ADAS 及協作機器人等應用。
華邦點強調,CUBE 提供卓越的電源效率,功耗效能低於 1pJ/bit,能夠確保延長執行時間並優化能源使用。另外,憑藉 32GB/s 至 256GB/s 的頻寬,CUBE 可提供遠高於行業標準的性能提升。而且,CUBE 擁有更小的外形尺寸。目前基於 20nm 標準,可以提供每顆晶片 256Mb-8Gb 容量,甚至 2025 年將有 16nm 標準。而引入矽通孔(TSV)可進一步增強性能,改善信號完整性、電源穩定性、以 9um pitch 縮小 IO 的面積和較佳的散熱。
最後,CUBE 的 IO 速度於 1K IO 可高達 2Gbps,當與 28nm 和 22nm 等成熟製程的 SoC 整合時,CUBE 則可達到 32GB/s至 256GB/s 頻寬,相當於 HBM2 頻寬,也相當於 4 至 32 個 LP-DDR4x 4266Mbps x16 IO 頻寬。甚至,當 SoC 堆疊在 CUBE上時,則有機會最小化 SoC 晶片尺寸,進而省下 TSV 面積損失,能夠為邊緣 AI 設備帶來更明顯的成本優勢。
華邦電進一步強調,CUBE 可以釋放混合邊緣/雲 AI 的全部潛力,以提升系統功能、回應時間以及能源效率。此外,華邦還正在積極與合作夥伴公司合作建立 3DCaaS 平台,該平台將進一步發揮 CUBE 的能力。通過將 CUBE 與現有技術相結合,華邦能為業界提供尖端解決方案,使企業在 AI 驅動轉型的關鍵時代蓬勃發展。
(首圖來源:科技新報攝)
標題:華邦電推創新 CUBE 架構超高頻寬記憶體,進軍邊緣運算 AI 市場
地址:https://www.utechfun.com/post/269195.html