Google 屋漏偏逢連夜雨,前陣子發表的大模型 Gemini 1.5,實力強勁但無人問津,被 OpenAI 影片產生模型 Sora 搶光風頭,最近又遇上美國社會很敏感的種族歧視問題,好心做壞事,惹惱站在鄙視鏈頂端的白人。
多樣化算你認真,過度多樣化惹禍上身
如果幾天前用過 Gemini 產生歷史人物圖片,使用者會看到彷彿平行時空,違背「戲說不是胡說」精神,簡單知識都變複雜了。西元 8~11 世紀的維京人不是金髮碧眼、高大魁梧的影視經典形象,雖然膚色變黑,穿著清涼,堅毅眼神依然展現出戰士的強悍。
1820 年代的德國夫婦,人種構成十分豐富,可以是美國原住民男性和印度女性,也可以是黑人男性和亞洲女性。
AI 瞎編劇情也講邏輯,後代繼續他們的故事,過了百年,1943 年的德國軍隊又能看見黑人男性和亞洲女性的身影。
王侯將相跨越時間的長河,越過陸地和大洋,美國開國元勳、中世紀英格蘭國王,都可能是黑人喔。
其他職業也一視同仁,AI 忽視天主教女性不能擔任神職,教皇變成印度女性。儘管美國第一位女性參議員出現在 1922 年且是白人,但 AI 筆下的 1800 年代已經很歡迎女性黑人及原住民從政。
都說歷史是任人打扮的小姑娘,但這次 AI 把人種完全換了。一向優越的白人氣呼呼,終於人種、膚色和外貌都嘗到受歧視的滋味。而當探索越發深入,不僅歷史人物,現代社會在 AI 眼裡也是另一副模樣,Google 前工程師 @debarghya_das 發現,美國、英國、德國、瑞典、芬蘭、澳洲女性膚色都可能偏黑。
他痛心疾首:「讓 Google Gemini 承認白人存在好像非常困難。」更讓網友生氣的是,產生烏幹達等國女性時,Gemini 反應很快,做事俐落,輪到白人就可能拒絕,甚至開始說教,回答這類要求會強化種族刻板印象。
計算機工程師 @IMAO_ 腦洞大開實驗,不局限人類,想知道 Gemini 眼前的黑是什麼黑,白是什麼白。結果很有意思,演算法似乎只針對白人,產生白熊沒問題,證明「white」不是 AI 敏感詞;產生非洲祖魯人也沒問題,儘管提示詞強調「多樣化」,但大家長得還是差不多。
漏洞出現在奇幻生物,精靈和侏儒都是白人,但吸血鬼和仙女「多樣化」,看來 Gemini 道行不深,還得與時俱進。
不過他的遊戲很快就結束。Google 承認歷史圖片確實有問題,並暫停 Gemini 人像產生功能,很快會調整好。Google 順便解釋立場,產生多樣化人物本來是件好事,因為 AI 工具就是給人用的,只是現在方向有點偏。
雖然 Google 爽快背鍋,但沒有明確回應出錯歷史圖片到底有多少,以及為什麼會有「過度多樣化」問題。不買帳的網友牙尖嘴利:「Gemini 一定是用迪士尼公主和 Netflix 影片訓練的」、「Gemini 其實想告訴你,如果你是黑人或亞洲人,你會長成什麼模樣」。
然而,種族歧視本來就是容易炎上的題材,所以也有人懷疑,某些圖片是惡意 P 圖,或用提示詞引導。在社群平台罵聲最響的,確實也是政治立場明確人士,不免有點陰謀論的味道。
I’m glad that Google overplayed their hand with their AI image generation, as it made their insane racist, anti-civilizational programming clear to all
— Elon Musk (@elonmusk)
馬斯克一直是愛看熱鬧鄉民,馬上跟風批評 Google 過度多樣化,說問題不只 Gemini,還有 Google 搜尋,順便幫自己兩週後發表的 AI 產品 Grok 打廣告:「不顧批評、嚴格追求真理從未如此重要。」上次馬斯克也是這麼做,呼籲暫停 GPT-4 進化後,買了一萬片 GPU 加入 AI 大戰。
比馬斯克言論更吸引人的,可能是網友趁亂做的哏圖。
網路差異,可能比現實更極端
Google 究竟為什麼「多樣化」走偏?Hugging Face 首席道德科學家 Margaret Mitchel 分析,Google 可能各種幹預 AI。一是 Google 可能幕後幫提示詞增加「多樣化」,如將「廚師肖像」變成「土著廚師肖像」;二是 Google 可能優先顯示「多樣化」圖片,假設 Gemini 每個提示詞產生十張圖片但只顯示四張,使用者更可能看到排在前面的「多樣化」圖像。
幹預過度恰恰說明,模型遠沒有我們想的靈活聰明。Hugging Face 研究員 Sasha Luccioni 認為,AI 模型沒有時間概念,所以「多樣性」校準放到所有圖片,歷史圖尤其容易出錯。其實當年沒沒無名的 OpenAI,AI 繪畫工具 DALL·E 2 也幹過類似的事。
2022 年 7 月,OpenAI 部落格說,如果使用者要求產生某人物圖,但沒有指定種族或性別,如消防員,DALL·E 2 會在「系統層級」應用新技術,產生「更準確反映世界人口多樣性」圖片。
OpenAI 舉例對比圖,同提示詞「A photo of a CEO」(首席執行長照片),用了新技術後,多樣性明顯增加。原來結果是白人男性,改進後亞洲男性、黑人女性也有成為 CEO 的資格,但運籌帷幄的表情和姿勢就像複製貼上。
不論哪種解決方案,都是後期亡羊補牢,更大問題還是,資料仍有偏見。
供 AI 公司訓練的 LAION 等資料庫,主要抓取美國、歐洲等網路資料,較少關注印度、中國等人口眾多的國家。所以「有魅力的人」更可能是金髮碧眼、皮膚白身材瘦的歐洲人,「幸福的家庭」或許指白人夫婦抱著孩子在修剪整齊草坪上微笑。
另外,為了讓圖搜尋時排名往前,很多資料庫可能還有大量「有毒」標籤,充斥色情暴力。種種原因導致人們觀念進步後,網路圖片人與人的差異可能比現實極端,非洲人原始,歐洲人世俗,高層是男性,囚犯是黑人……
為資料庫「解毒」的努力當然進行中,如過濾掉「壞」內容,但過濾代表牽一髮動全身,刪除色情內容,可能導致某些地區內容更多或更少,又造成某種偏差。簡而言之,完美不可能,現實社會又何嘗沒有偏見,只能盡量做到不讓邊緣群體還是邊緣,降低弱勢群體的刻板印象。
逃避雖可恥但有用
2015 年 Google 機器學習專案也陷入類似爭議。某軟體工程師批評 Google Photos 將非裔美國人或膚色較深人種標記成大猩猩。 這醜聞也成為「演算法種族主義」典型例子,影響至今。兩名前 Google 員工解釋,這麼大錯誤是因資料庫沒有足夠黑人照片,且功能亮相前沒有足夠內測。
時至今日,計算機視覺不可同日而語,但科技巨頭仍擔心重蹈覆轍,Google、蘋果等相機應用,辨識多數靈長類動物仍然不夠靈敏或刻意迴避。防止錯誤再發生的最好方式,似乎只是把問題關進小黑屋,而非修補。教訓確實重新上演,2021 年 Facebook 為 AI 將黑人貼上「靈長類動物」標籤道歉。這些才是有色人種或網路弱勢群體較熟悉的狀況。
2023 年 10 月,牛津大學研究員要求 Midjourney 產生「治療白人兒童的非洲黑人醫生」圖片,扭轉「白人救世主」的傳統印象。研究員要求非常明確,然而產生 350 多張圖,22 張醫生是白人,黑人醫生旁邊總有長頸鹿、大象等非洲野生動物,「你看不到非洲有現代感」。
一邊是司空見慣的歧視,一邊是 Google 歪曲事實營造假平等感,目前沒有簡單答案,如何達成人人滿意的平衡,恐怕比走鋼索還難,就拿產生人像來說,如果是用 AI 產生某段歷史時期,或許反映真實更好,儘管看起來沒那麼「多樣化」。
但如果輸入提示詞「一名美國女性」,理應輸出更「多樣化」結果,但難點在 AI 如何有限幾張圖就能反映現實,或至少不扭曲現實?哪怕同是白人或黑人,年齡、身材、頭髮等特徵也不相同,所有人都有獨特經歷和觀點,卻又生活在同個社會。
網友用 Gemini 產生芬蘭女性,四張圖只有一張是黑人女性,開玩笑說:「75%,得分 C。」也有人追問 Google 模型改善後,是否「25% 時間產生白人,而非 5%」。很多問題並非技術能解決,有時是觀念問題,這也是 Yann LeCun 等 AI 名人支持開源的部分原因,由用戶和組織自行控制,根據意願設立或不設立保護措施。
這次 Google 鬧劇有人保持冷靜,表示先練習怎麼寫提示詞,與其籠統說白人黑人,不如寫「斯堪地那維亞女性、肖像拍攝、演播室照明」,要求越明確,結果也越精準,要求越廣泛,結果當然越籠統。
去年 7 月有過類似的事,麻省理工亞裔學生想用 AI 工具 Playground AI 讓頭像看起來更專業,結果變成白人,膚色更淺,眼睛更藍,她發文到 X 後,引發很多討論。Playground AI 創辦人回應,模型無法對這種指令有效產生圖片,所以輸出更通用的結果。提示詞「專業的 Linkedin 照片」改成「工作室背景、銳利燈光」,結果可能更好,但確實顯示很多 AI 工具既沒教用戶怎麼寫提示詞,資料庫又以白人為中心。
任何技術都有犯錯的可能和改善空間,卻未必有答案。當 AI 還不夠聰明,只能人類自己進步。
(本文由 授權轉載;首圖來源:shutterstock)
延伸閱讀:
標題:馬斯克果然不會放過,也來踩又出包的 Google AI 模型一腳
地址:https://www.utechfun.com/post/337503.html