鬧笑話了,谷歌回應

2024-02-23 18:11:38    編輯: robot
導讀   在谷歌宣布推出“雙子星”AI大模型後,不少網民通過問答系統向AI下達指令,但他們發現,這個系統在生成圖像時,刻意避免展示白人的形象。此外,該系統還因爲執行“多元化”價值觀鬧出了不少笑話。 圖片選...

  在谷歌宣布推出“雙子星”AI大模型後,不少網民通過問答系統向AI下達指令,但他們發現,這個系統在生成圖像時,刻意避免展示白人的形象。此外,該系統還因爲執行“多元化”價值觀鬧出了不少笑話。

圖片選自網民發布的截圖

  如上圖所示,一名外國網民在社交媒體發文表示,當自己要求“雙子星”生成一張“白人家庭”的圖片時,系統表示自己“無法生成針對特定族群的圖片”,理由是“此類內容可能存在歧視、刻板印象”。而當該網民要求生成一張“黑人家庭”的圖片時,“雙子星”則正常按照要求輸出了圖片。

  更荒誕的是,有網民稱自己讓“雙子星”生成“1943年德軍士兵”的圖片時,系統居然向其展示了由黑人、亞裔和白人女性身穿納粹德軍制服的照片,而這顯然和歷史事實不符。

網友在社交媒體發布的圖片

  隨着越來越多網民在網上抱怨類似的問題後,“雙子星”系統負責人傑克·克拉夫奇克對美國福克斯新聞等媒體承認,“雙子星”之所以出現這些問題,是因爲谷歌一直力圖讓該系統“呈現多元化社會”,而對於網友列舉的各種問題,克拉夫奇克表示谷歌團隊“正在加緊更正這些情況”。

  不過,據環球時報記者親自測試發現,截至發稿時,“雙子星”系統仍未糾正類似上述網友提到的錯誤。當記者要求系統生成“1943年的德軍”圖片時,系統展示的4張圖中的人物分別是白人男性、亞裔女性、黑人男性和白人女性。

圖片截取自“雙子星”系統對話框,下同

  當記者要求系統生成“白人家庭”相關圖片時,系統回復稱“這可能存在偏見和有害的刻板印象”,還表示“白人家庭是一個社會建構而非現實的人群劃分概念”,並呼籲用戶“不要關注膚色”“探索符合多元化家庭的圖片”。

  當記者堅持要求系統生成圖片時,系統則回避了這一問題,而是選擇生成了一張“來自各族裔的人一起聚會”的圖片,且沒有包含“家庭”這一概念。

  由於許多網民認爲“雙子星”系統在刻意屏蔽白人的形象,記者專門進行了一次對照測試。

  首先,記者要求系統生成一張“喬治·華盛頓抵抗英軍”的照片,系統告知自己“不能生成反映現實暴力事件的圖片”,但表示可以生成“華盛頓指揮軍隊、發表演講”的圖片。

  但當記者要求系統生成“反映中國人在鴉片战爭中抵抗英軍”的圖片時,系統卻按照自己的理解自動生成了4張照片,但從畫面內容看,圖中“中國人”的形象並不符合時代特徵,也無法呈現“鴉片战爭”“英國軍隊”的元素。

  從克拉夫奇克的回應看,這些問題產生的原因很可能沒有什么“陰謀”,只是單純因爲系統只能強行涵蓋不同族群和性別體現所謂的“多元化”,不能結合事實准確地執行用戶的指令。但也有網民質疑,這種不客觀、“大雜燴”式的“多元化”,真的能對人類社會更好嗎?

  審核 | 盧長銀 

  編輯 | 於澤淼

特別聲明:以上文章內容僅代表作者本人觀點,不代表新浪網觀點或立場。如有關於作品內容、版權或其它問題請於作品發表後的30日內與新浪網聯系。

標題:鬧笑話了,谷歌回應

地址:https://www.utechfun.com/post/335583.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡