OpenAI 籌備新團隊對付 AI 災難,預防潛在核武和生化威脅

2023-10-31 13:42:00    編輯: Unwire HK
導讀 越來越強大的 AI 科技隱憂不容忽視,如果遭濫用,有機會發生毀滅性災難。OpenAI 特地成立團隊評估防範問題,確保 AI 科技不會造成災難。 OpenAI 團隊名為「Preparedness」(備...


越來越強大的 AI 科技隱憂不容忽視,如果遭濫用,有機會發生毀滅性災難。OpenAI 特地成立團隊評估防範問題,確保 AI 科技不會造成災難。

OpenAI 團隊名為「Preparedness」(備戰),由麻省理工學院機器學習中心(Center for Deployable Machine Learning)主任 Aleksander Madry 領導。團隊任務包括追蹤預測及防範 AI 系統可能的危險,特別是系統對網路安全的潛在威脅。OpenAI 提及不同風險,有化學、生物、輻射和核威脅等。

OpenAI 舉辦挑戰賽邀請開發者社群提交風險研究提案,開發者不只可獲獎金,還有機會加入 Preparedness 團隊。這活動要求參與者思考如果惡意使用者獲得 OpenAI 某些先進模型的不受限制權限,可能發生的最壞情況。

OpenAI 強調 AI 模型能力不斷提升,對全人類的潛在益處增加同時,也形成嚴重風險,故積極發展策略和基礎設施,以確保安全控制和部署高階 AI 系統。

(本文由 授權轉載;首圖來源:shutterstock)



關鍵字: , ,


標題:OpenAI 籌備新團隊對付 AI 災難,預防潛在核武和生化威脅

地址:https://www.utechfun.com/post/284033.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡