ChatGPT 中的性別歧視、種族歧視有多普遍?

2024-10-18 18:40:24    編輯: robot
導讀 編輯:Yuki | ID:YukiYuki1108 近期,OpenAI 的研究團隊在評估 ChatGPT 與用戶交互時,發現選定的用戶名可能會輕微影響 AI 的回答。盡管這種影響較小,主要體現在老舊...

編輯:Yuki | ID:YukiYuki1108

近期,OpenAI 的研究團隊在評估 ChatGPT 與用戶交互時,發現選定的用戶名可能會輕微影響 AI 的回答。盡管這種影響較小,主要體現在老舊模型中,但這一發現仍引起了學界的關注。通常情況下,用戶會爲 ChatGPT 設置個人名字以進行交流,而這些名字中的文化、性別和種族元素,成了探索AI偏見的關鍵窗口。

研究人員在實驗中觀察到,對於同一個問題,ChatGPT 根據不同用戶名的性別或種族背景,會有不同的響應方式。研究指出,盡管AI對所有用戶群體的響應質量大致一致,但在某些特定任務,如創意寫作中,用戶名的性別或種族差異會導致生成內容帶有某些刻板印象。例如,使用女性名字的用戶可能會收到以女主角爲中心、情感豐富的故事,而男性名字的用戶則可能得到內容較爲陰沉的故事。

具體案例中,當用戶名爲 "Ashley" 時,ChatGPT 可能將縮寫 "ECE" 解釋爲“早期兒童教育”;而對於名爲 "Anthony" 的用戶,則解釋爲“電氣與計算機工程”。雖然這類帶有偏見的回應在OpenAI的實驗中較爲少見,但在舊版模型中,這種現象更加明顯。數據表明,GPT-3.5Turbo 在敘事任務中的歧視率最高,達到了2%。然而,隨着模型的更新與改進,新版本的ChatGPT顯示出更低的歧視傾向。此外,研究還對與不同種族背景相關的用戶名進行了比較。

結果表明,在創意任務中確實存在種族歧視,但其程度通常較性別歧視爲低,介於0.1%至1%之間。特別是在處理與旅行相關的查詢時,種族歧視的表現更爲突出。OpenAI 指出,通過採用強化學習等先進技術,新版的ChatGPT大幅降低了偏見現象。在這些新模型中,歧視發生率僅爲0.2%。例如,在最新的o1-mini模型中,面對數學問題“44:4”的解答對於名爲Melissa和Anthony的用戶均表現出無偏見的回應。

在進行強化學習調整之前,對Melissa的回答可能涉及到宗教和嬰兒話題,而對Anthony則可能提到染色體和遺傳算法。通過這些發現和改進,OpenAI 正在不斷優化 ChatGPT,以確保爲所有用戶提供公正、無偏見的交互體驗。這項工作不僅有助於提升AI的普遍接受度,也爲AI技術在處理復雜社會文化問題上的應用提供了重要的參考。OpenAI 的研究揭示了用戶選定的用戶名可能在一定程度上影響 ChatGPT 的響應。

盡管在較新的模型中歧視表現減少,但舊版模型在處理創意寫作等任務時,仍可能根據用戶名的性別或種族生成帶有刻板印象的內容。例如,不同的性別名稱可能接收到情感差異明顯的故事。研究強調,通過技術進步,特別是應用強化學習,最新的模型已大幅降低偏見,確保了更公平的交互體驗。這些發現對於持續優化 AI 系統,提供無偏見服務具有重要意義。

       原文標題 : ChatGPT 中的性別歧視、種族歧視有多普遍?



標題:ChatGPT 中的性別歧視、種族歧視有多普遍?

地址:https://www.utechfun.com/post/433725.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡