中國審查 AI 大型語言模型,要求體現社會主義價值

2024-07-18 16:15:00    編輯: 中央社
導讀 英國金融時報 17 日報導,中國政府正測試人工智慧公司的大型語言模型,確保其系統「體現社會主義核心價值」。審查內容包括語言模型對與中國政治敏感性及中國國家主席習近平相關問題的答案。 報導表示,根據多...


英國金融時報 17 日報導,中國政府正測試人工智慧公司的大型語言模型,確保其系統「體現社會主義核心價值」。審查內容包括語言模型對與中國政治敏感性及中國國家主席習近平相關問題的答案。

報導表示,根據多名涉及審查過程的人表示,中國國家互聯網信訊辦公室已迫使包括字節跳動(ByteDance)、阿裏巴巴、Moonshot和01.AI在內的大型科技公司和人工智慧新創公司,參與中國政府對其人工智慧模型的強制審查。

審查內容涉及批量測試大型語言模型對一系列問題的答案,當中很多問題與中國政治敏感性及習近平有關。審查還包括語言模型的訓練數據和其他安全流程。

這些審查工作由中國國家互聯網信訊辦公室在全國各地機構進行。

一名以杭州為基地的人工智慧公司員工表示,中國國家網信辦有一特別團隊負責這工作,他們會來辦公室,坐在會議室裡進行審查。

這名員工表示,其公司的大型語言模型第一次沒通過審查,原因不太清楚。公司花了數月時間作出調整,第二次才通過審查。

報導表示,中國嚴格的審批流程迫使人工智慧公司,迅速學會如何最好審查正建立的大型語言模型。一名北京頂級人工智慧新創公司員工表示,其公司的基礎模型在回答問題時「非常非常不受約束」,所以進行安全過濾極其重要。

要進行安全過濾,首先要從用來訓練的數據中剔除有問題的資訊,並建立敏感關鍵字資料庫。中國今年2月發布的人工智慧企業營運指南稱,人工智慧企業需要收集數千個違反「社會主義核心價值」的敏感關鍵字和問題,例如「煽動顛覆國家政權」或「破壞國家統一」。敏感關鍵字應該每週更新一次。

經審查的結果是,大多數中國聊天機器人都會拒絕一些敏感話題的詢問,例如1989年6月4日發生的事情。

另有業內人士指出,Moonshot的聊天機器人Kimi拒絕大多數與習近平相關的問題。

中國國家互聯網信訊辦公室、字節跳動、阿裏巴巴、Moonshot和01.AI沒有回應金融時報的置評請求。

(首圖來源:shutterstock)

文章看完覺得有幫助,何不給我們一個鼓勵

想請我們喝幾杯咖啡?

每杯咖啡 65 元

x 1
x 3
x 5
x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0


關鍵字: ,


標題:中國審查 AI 大型語言模型,要求體現社會主義價值

地址:https://www.utechfun.com/post/398652.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡