AI發展途中,哪怕是大廠的內控制度仍需加強
大模型也能被“投毒”?
近日,有消息稱字節跳動發生大模型訓練被實習生“投毒”事件。
據流傳,該事件發生在字節跳動商業化團隊,因實習生田某某對團隊資源分配不滿,利用HF(huggingface)的漏洞,通過共享模型注入破壞代碼,導致團隊模型訓練成果受損。消息稱此次遭到入侵的代碼已注入8000多張卡,損失或達千萬美元。
而在19日下午,字節跳動官方也出面進行了澄清,表示有媒體稱“字節跳動大模型訓練被實習生攻擊”,經公司內部核實,確有商業化技術團隊實習生發生嚴重違紀行爲,該實習生已被辭退。
不過,雖然有相關事件,但相關報道也存在部分誇大及失實信息,涉事實習生惡意幹擾商業化技術團隊研究項目的模型訓練任務,但並不影響商業化的正式項目及线上業務,也不涉及字節跳動大模型等其他業務。另外,網傳“涉及8000多卡、損失上千萬美元”嚴重誇大。
經核實,涉事人一直在商業化技術團隊實習,並沒有AI Lab實習經歷。其社交媒體個人簡介及部分媒體報道有誤。據悉,該實習生已在8月被公司辭退。公司也將其行爲同步給行業聯盟和所在學校,交由校方處理。
但是,此事件也暴露出了字節跳動技術訓練中存在的安全管理問題,包括權限隔離、共用代碼的審計等。據九派新聞報道,一位技術安全專家表示,HF漏洞產生肯定是單一性集中訓練,公司既沒做權限隔離,也沒有做好共用代碼的審計。正常情況下,每次大的代碼變動必須做審計,無論誰做操作都有痕跡記錄,一個人想動代碼是不可能的。
作者:楊啓隆
編輯:丁力
原文標題 : 字節跳動大模型遭實習生破壞?公司稱損失上千萬美元嚴重誇大
標題:字節跳動大模型遭實習生破壞?公司稱損失上千萬美元嚴重誇大
地址:https://www.utechfun.com/post/435418.html