ChatGPT在全球的關注度持續火熱,再次將AI產業推到聚光燈下,科技巨頭爭相謀局落子,繼微軟、谷歌之後,國內企業百度、阿裏巴巴等也先後發布大模型,並進行用戶測試和企業應用接入。隨着AI產業迎來“iPhone時刻”,算力需求正在持續釋放,以AI服務器核心零部件GPU(圖像處理器、加速芯片)爲代表的供給端走俏,其價格也在不斷上漲,而在AI芯片GPU市場佔據絕對優勢的英偉達也賺得盆滿鉢滿。
多位業內人士表示,大型模型通常需要龐大的算力和存儲資源來進行訓練,GPU已成爲 AI 加速芯片通用性解決方案,越來越多的企業和個人开始使用GPU來訓練大型深度學習模型。這種需求的增加可能導致GPU的價格上漲,從而導致顯卡價格的上漲。此外,由於供應鏈問題、半導體短缺等因素的影響,顯卡價格的波動也可能受到一定程度的幹擾。
英偉達大秀肌肉
AI場景需要多核、高並發、高帶寬AI芯片。AI芯片,也被稱爲AI加速器或計算卡,即專門用於處理人工智能應用中的大量計算任務的模塊。當前,AI芯片主要分爲GPU、FPGA,及以TPU、VPU爲代表的ASIC芯片,而 GPU憑借其高性能、高靈活度特點成爲AI 加速方案首選。據 IDC 數據,預計到2025年,GPU仍將佔據AI芯片80%市場份額。
資料顯示,2018年OpenAI开發的GPT-1的預訓練大模型參數爲1.1億,2019年發布的GPT-2提高至15億,2020年GPT-3的預訓練大模型參數已經提高至1750億。而爲了訓練ChatGPT,OpenAI構建了由近3萬張英偉達V100顯卡組成的龐大算力集群,GPT-4更是達到了100萬億的參數規模,其對應的算力需求同比大幅增加。
TrendForce分析認爲,要處理近1800億參數的GPT-3.5大型模型,需要2萬顆GPU芯片,而大模型商業化的GPT需要超過3萬顆。GPT-4則需要更多。
不僅如此,目前主流 AI 廠商都進入了“千億參數時代”,多採用了英偉達的 GPU。以科大訊飛星火認知大模型爲例,其使用了英偉達的T4 Tensor Core GPU進行訓練。除了T4 Tensor Core GPU,科大訊飛還使用了其他類型的GPU和其他硬件設備來支持其深度學習平台的开發和應用。這些硬件設備包括英偉達的PaddlePaddle、NVIDIA Tesla V100、AMD EPYC等,以及多種CPU、內存、網絡設備等。
昆侖萬維集團CEO方漢也表示: “超過千億級別的大模型,它的訓練大概需要1000—2000張A100的卡,沒有2000張A100的卡,實驗都做不了。”
招商證券指出,從通用服務器到AI服務器,一個最顯著的變化就是GPU取代了CPU成爲整機最核心的運算單元以及價值量佔比最大的部分,傳統服務器通常至多配備4個CPU+相應內存和硬盤,在AI服務器中,通常是2顆CPU+8顆GPU,部分高配4U服務器中甚至可以搭配16顆GPU,預計AI服務器中GPU+CPU+存儲的價值量佔比有望達到80%以上的水平。
據統計,英偉達當前在售的用於大模型訓練的GPU卡至少有9款型號,其中高性能的有4款,分別是V100、A800、A100及H100。而此輪AI“軍備競賽”也讓用於上述顯卡的價格一路高漲。其中,A100此前售價在1.5萬美元(約合人民幣10.35萬元),但目前在一些平台上,此款顯卡價格上漲到15萬元左右。
英偉達也借機賺足了“錢包”。TrendForce 數據顯示,如果以英偉達 A100 顯卡的處理能力計算,GPT-3.5大模型需要2萬塊GPU來處理訓練數據。目前英偉達 A100 顯卡的售價在 10000~15000 美元之間,預估英偉達可以賺3億美元(約20多億元人民幣)。
值得注意的是,英偉達還在源源不斷地爲這場軍備競賽輸送彈藥。在此前GTC开發者大會上,英偉達推出了新的Hoppper CPU——配有雙 GPU NVLink 的 H100 NVL,這是專門針對算力需求巨大的 ChatGPT 而設計的顯卡,擁有誇張的 188GB HBM3 內存(每張卡 94GB)。
不過,即使價格上漲,目前市面上幾乎“一卡難求”。一位業內人士對記者表示,客戶對英偉達A100/H100芯片需求強勁,後者訂單能見度已至2024年,更緊急向代工廠台積電追單。
國產廠商的機遇
雖然國內外的大模型項目接連落地,但除了百度、阿裏巴巴等企業採用自研芯片外,國內大多數企業仍難求高端GPU。據透露,國內可用於訓練AI大模型的A100大約有4萬—5萬個。
英偉達在去年收到美國政府的通知,通知稱:“若對中國(含中國香港)和俄羅斯的客戶出口兩款高端GPU芯片——A100和H100,需要新的出口許可。”不僅如此,該許可證要求還包括未來所有的英偉達高端集成電路,只要其峰值性能和芯片間I/O性能均大於或等於A100的閾值,以及包括這些高端電路的任何系統,都被納入許可證限制範圍。
不過,英偉達針對中國客戶推出了替代型號A800,與原有的A100系列計算卡相比,A800系列的規格基本相同,比較大的區別在於NVLink互連總线的連接速率,前者爲600GB/s,後者限制在了400GB/s。綜合使用效率只有A100的70%左右。前不久英偉達還發布了特供版的 H800,作爲其旗艦芯片 H100 的替代版。
4月14日,騰訊雲正式發布新一代HCC(High-Performance Computing Cluster)高性能計算集群。據悉,該集群採用騰訊雲星星海自研服務器,搭載英偉達最新代次H800 GPU,H800基於Hopper架構,對跑深度推薦系統、大型AI語言模型、基因組學、復雜數字孿生等任務的效率提升非常明顯。與A800相比,H800的性能提升了3倍,在顯存帶寬上也有明顯的提高,達到3TB/s。
伴隨着近期宏觀經濟回暖以及國內互聯網企業紛紛加大AI算力布局,PC和服務器的需求上升有望爲國內GPU市場帶來整體拉動效應。
目前,國內已湧現出一批優秀的GPU設計和制造廠商。
其中,海光信息目前已經成功掌握高端協處理器微結構設計等核心技術,並以此爲基礎推出了性能優異的DCU產品。其深算一號產品和英偉達A100及AMD高端GPU產品(MI100)進行對比,單芯片產品基本能達到其70%的性能水平。
值得注意的是,上述業內人士表示,雖然國內的GPU廠商取得了一些成績,但是由於GPU研發難度大、开發周期長,例如A100,英偉達只用了三個月的時間便研發出替代方案,而國內卻並不多見。而且目前中國GPU开發者大多使用國外廠家提供的IP,自主性不高,不過經過多年沉澱是能夠實現國產替代的。
BY中國經營網
風險提示:以上數據來源均爲公开信息,僅供參考,不構成任何操作建議或推薦。基金投資需謹慎。基金管理人承諾將本着誠信嚴謹的原則,勤勉盡責地管理基金資產,但並不保證基金一定盈利,也不保證最低收益。基金的過往業績並不預示其未來表現,基金管理人管理的其他基金的業績並不構成本基金業績表現的保證。投資者在投資基金前,請務必認真閱讀《基金合同》及《招募說明書》等法律文件。本基金適當性風險等級爲R3,在代銷機構申購的應以代銷機構的風險評級規則爲准。如需購买本基金,請您關注投資者適當性管理相關規定,提前做好風險測評、並根據您自身的風險承受能力購买與之相匹配的風險等級的基金產品。
免責聲明:轉載內容僅供讀者參考,版權歸原作者所有,內容爲作者個人觀點,不代表其任職機構立場及任何產品的投資策略。本文只提供參考並不構成任何投資及應用建議。如您認爲本文對您的知識產權造成了侵害,請立即告知,我們將在第一時間處理。
#美光在華銷售產品未通過審查#
#半導體板塊估值處歷史低位 #
#美國債務危機“山雨欲來”#
$標普500ETF(SH513500)$
$漢王科技(SZ002362)$
$英偉達(NASDAQ|NVDA)$
本文作者可以追加內容哦 !
標題:AI“大行其道”,英偉達“坐享其成”
地址:https://www.utechfun.com/post/215874.html