2024 年即將到來,微軟展望新的一年將為 Copilot 服務推出一系列新功能,包括對 GPT-4 Turbo、DALL·E 3 模型的支援,還有 Code Interpreter 新功能,此外 Bing 搜尋引擎結合 GPT-4 模型帶來深度搜尋。
微軟日前為旗下產品進行品牌重塑,整合成一致的品牌與對話體驗,稱之為「Microsoft Copilot」,並提供 讓任何人能在任何裝置造訪使用。
接下來,Copilot 很快就能使用 OpenAI 最新 GPT-4 Turbo 模型進行回應,也就是說,未來將能透過 128K token 的上下文長度查看更多資料,使 Copilot 更能理解問題並回答更周全的答案。「該模型目前針對特定用戶進行測試,未來幾週內將廣泛整合到 Copilot 當中」,微軟消費事業群行銷長邁赫迪(Yusuf Mehdi)表示。
此外,Copilot 將 GPT-4 模型視覺方面強大功能與 Bing 圖像搜尋和網路搜尋資料結合,當上傳圖片至 Copilot 時提供更好的圖像理解。
微軟正對 Bing 的影像建立工具( )與 Copilot 採用 DALL·E 3 模型,根據文字產生圖像。「你可以使用 Copilot 透過最新的 DALL·E 3 模型建立更高品質、更精準的圖像」,邁赫迪強調。
開發者可能對 Copilot 即將推出 Code Interpreter 新功能感興趣,這使 Copilot 用戶能夠從 AI 聊天機器人獲得更準確的數據分析、視覺化資料、甚至是程式碼。 「Copilot 將能編寫程式碼來完成複雜問題的請求,在沙盒環境中執行程式碼,並使用結果為你提供更高品質的答案」,邁赫迪解釋。
微軟還為 Bing 增添深度搜尋(Deep Search),利用強大 GPT-4 模型為複雜主題提供最佳化的搜尋結果。啟動深度搜尋可將查詢擴展成更全面的描述,進而提供更相關的搜尋結果。
(首圖來源:)
延伸閱讀:
標題:微軟 Copilot 支援 GPT-4 Turbo、DALL·E 3 模型,對話回應更強大
地址:https://www.utechfun.com/post/300489.html