反擊 AI!新工具幫藝術家「毒害」訓練數據

2023-10-25 08:30:00    編輯: Unwire Pro
導讀 生成式 AI 普及提升企業效率和降低成本,不過對藝術家可是衝擊生計。為了反擊,有研究開發出污染訓練數據的工具,讓藝術家作品加入這些「毒素」對抗。 名為「Nightshade」的工具由芝加哥大學電腦科...


生成式 AI 普及提升企業效率和降低成本,不過對藝術家可是衝擊生計。為了反擊,有研究開發出污染訓練數據的工具,讓藝術家作品加入這些「毒素」對抗。

名為「Nightshade」的工具由芝加哥大學電腦科學教授 Ben Zhao 領導開發,可讓藝術家數位作品檔案加入特別設定的畫素,肉眼難發現,不過如果用來 AI 訓練,就會污染數據,讓 AI 無法有效辨識內容,如狗圖加入特別畫素後,AI 會以為是貓。Nightshade 數據污染技術難防禦之處,在 AI 模型開發人員需找出並剔除任何包含特殊畫素的圖片,因肉眼辨識不易,數據爬取工具也難檢測,要預防極為困難。

研究員承認,結果可能用於惡意目的,但希望幫助藝術家從 AI 公司手中奪回創作權,透過強大威懾力對抗不尊重藝術家版權和智慧財產權的 AI 公司。

(本文由 授權轉載;首圖來源:)

延伸閱讀:



關鍵字: , , ,


標題:反擊 AI!新工具幫藝術家「毒害」訓練數據

地址:https://www.utechfun.com/post/281197.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡