微軟(Microsoft)需要更多運算資源來滿足爆炸性成長的 AI 服務,而甲骨文(Oracle)恰巧有數以萬計的 NVIDIA A100 和 H100 GPU 可供租用,促成雙方合作。
甲骨文 7 日宣布與微軟達成多年協議,微軟使用 Oracle Cloud Infrastructure(OCI)AI 基礎設施以及 Microsoft Azure AI 基礎結構來推理 AI 模型。透過適用於 Microsoft Azure 的 Oracle Interconnect,微軟能夠使用 Azure Kubernetes Service(AKS)等服務大規模編排 OCI 運算,以滿足 Bing 對話式搜尋不斷成長的需求
「我們與甲骨文合作,Oracle Cloud Infrastructure 和 Microsoft Azure AI 基礎結構的使用,將擴大客戶造訪範圍並提升搜尋速度」,微軟搜尋和人工智慧全球行銷負責人 Divya Kumar 透過聲明表示。
在導入 OpenAI 的 AI 技術後,你可對 Bing Chat 輸入文字提示、問題以及查詢,它會嘗試產出文字內容、尋找資訊,甚至產生各種風格的圖片。Bing Chat 背後支援的大型語言模型不僅需要大量 GPU 叢集進行訓練,還需要大規模推理,而甲骨文的 GPU 叢集有助於完成這些推理工作。
Oracle 宣稱 OCI Supercluster 可擴展至 4,096 個 OCI 運算裸機執行個體,配備 32,768 個 A100 GPU 或 16,384 個 H100 GPU,以及 PB 級高效能叢集檔案系統儲存,以高效處理大規模的應用程式。
值得一提的是,根據網站流量分析工具 StatCounter 數據顯示,2023 年 10 月,Bing 在所有平台的全球搜尋市佔率為 3.1%,遠遠不及 Google 市佔率 91.6%。進一步來看,電腦上的 Bing 搜尋市佔率來到 9%,平板電腦則有 4.6%。
從流量數據似乎看不出 Bing 不斷成長的需求,但微軟 AI 需求顯然越來越大,以至於軟體巨擘要將 Bing 搜尋引擎所用的一些機器學習模型轉移到甲骨文的 GPU 叢集上。
(首圖來源:)
標題:Bing 對話式搜尋 AI 運算急需 GPU,微軟向甲骨文租用算力
地址:https://www.utechfun.com/post/288007.html