在谷歌宣布推出“雙子星”AI大模型後,不少網民通過問答系統向AI下達指令,但他們發現,這個系統在生成圖像時,刻意避免展示白人的形象。此外,該系統還因爲執行“多元化”價值觀鬧出了不少笑話。
圖片選自網民發布的截圖如上圖所示,一名外國網民在社交媒體發文表示,當自己要求“雙子星”生成一張“白人家庭”的圖片時,系統表示自己“無法生成針對特定族群的圖片”,理由是“此類內容可能存在歧視、刻板印象”。而當該網民要求生成一張“黑人家庭”的圖片時,“雙子星”則正常按照要求輸出了圖片。
更荒誕的是,有網民稱自己讓“雙子星”生成“1943年德軍士兵”的圖片時,系統居然向其展示了由黑人、亞裔和白人女性身穿納粹德軍制服的照片,而這顯然和歷史事實不符。
網友在社交媒體發布的圖片隨着越來越多網民在網上抱怨類似的問題後,“雙子星”系統負責人傑克·克拉夫奇克對美國福克斯新聞等媒體承認,“雙子星”之所以出現這些問題,是因爲谷歌一直力圖讓該系統“呈現多元化社會”,而對於網友列舉的各種問題,克拉夫奇克表示谷歌團隊“正在加緊更正這些情況”。
不過,據環球時報記者親自測試發現,截至發稿時,“雙子星”系統仍未糾正類似上述網友提到的錯誤。當記者要求系統生成“1943年的德軍”圖片時,系統展示的4張圖中的人物分別是白人男性、亞裔女性、黑人男性和白人女性。
圖片截取自“雙子星”系統對話框,下同當記者要求系統生成“白人家庭”相關圖片時,系統回復稱“這可能存在偏見和有害的刻板印象”,還表示“白人家庭是一個社會建構而非現實的人群劃分概念”,並呼籲用戶“不要關注膚色”“探索符合多元化家庭的圖片”。
當記者堅持要求系統生成圖片時,系統則回避了這一問題,而是選擇生成了一張“來自各族裔的人一起聚會”的圖片,且沒有包含“家庭”這一概念。
由於許多網民認爲“雙子星”系統在刻意屏蔽白人的形象,記者專門進行了一次對照測試。
首先,記者要求系統生成一張“喬治·華盛頓抵抗英軍”的照片,系統告知自己“不能生成反映現實暴力事件的圖片”,但表示可以生成“華盛頓指揮軍隊、發表演講”的圖片。
但當記者要求系統生成“反映中國人在鴉片战爭中抵抗英軍”的圖片時,系統卻按照自己的理解自動生成了4張照片,但從畫面內容看,圖中“中國人”的形象並不符合時代特徵,也無法呈現“鴉片战爭”“英國軍隊”的元素。
從克拉夫奇克的回應看,這些問題產生的原因很可能沒有什么“陰謀”,只是單純因爲系統只能強行涵蓋不同族群和性別體現所謂的“多元化”,不能結合事實准確地執行用戶的指令。但也有網民質疑,這種不客觀、“大雜燴”式的“多元化”,真的能對人類社會更好嗎?
審核 | 盧長銀
編輯 | 於澤淼
特別聲明:以上文章內容僅代表作者本人觀點,不代表新浪網觀點或立場。如有關於作品內容、版權或其它問題請於作品發表後的30日內與新浪網聯系。標題:鬧笑話了,谷歌回應
地址:https://www.utechfun.com/post/335583.html