我們和工具的關係,從來都不只「使用」和「被使用」。
雖然 ChatGPT 讓更多人關注 AI 潛力,但融入 AI 的工具我們都用很久了。然而我們對工具影響人,研究認知還是偏少。不少人知道社群媒體推薦演算法,不僅讓手機「越來越好滑」,同時也以「猜你喜歡」將使用者捲入資訊繭。
自動糾正拼寫、自動回覆郵件、產生 PPT 的 AI 工具,你也許會覺得指揮它們工作,但這些工具真沒有想像的「中性」。
寫著寫著,你就被說服了
越來越多研究指出,AI 工具在人們沒意識下改變人們想法。最新研究指出,被研究物件用 AI 幫忙寫論文,AI 會根據自身偏見,推動研究對象寫出支援或反對特定觀點的論文。同時,寫論文過程也會大幅影響使用者對話題的看法。
康奈爾大學 Mor Naaman 將這稱為「隱性說服」,並表示人們「可能根本不知道自己被影響」。AI 雖然讓人更高效,但也會潛移默化改變人的觀點。且 AI 改變人的方式更像合作和社會活動改變說服另一個人,沒那麼像社群媒體對我們的影響。
另一份研究針對 Gmail 智慧回覆功能。AI 幫助人更積極回信,用戶交流更積極。第二個研究指出,自動回覆,也讓接收者認為發信者是好人和更願意合作。
考慮到微軟和 Google 等都將 AI 融入各辦公軟體,AI 對人的影響也近在咫尺,最壞狀況下,掌握權力和技術的人能透過看似無害、又能提高生產效率的工具推動和影響人們對特定事物的態度。
和社群媒體推薦演算法、過濾泡泡和兔子洞外相比,最有趣的地方在於「隱密性」。
發現這狀況的研究員認為,最佳防禦法是讓人們意識這問題存在。更長期看,管制要求 AI 保持透明也是另一種方式──讓使用者知道特定 AI 偏見是什麼。哥倫比亞大學教授 Lydia Chilton 指出,當人們了解 AI 有什麼偏見,並自己選擇這偏見可用,決定何時用,人們就會重新獲得自主性。
是「偏見」也是「目標觀」
AI 無「價值觀」,但因訓練素材和調教者有價值偏好,所以 AI 有偏見。研究人員認為,偏見某些程度能幫助我們了解特定群體對特定事件的態度,然而利用前要先研究清楚 AI 偏好是什麼。
Tatsunori Hashimoto 博士和同事想到個方法──讓 AI 做問卷調查。
Hashimoto 團隊讓 AI 做皮尤研究中心民意調查問卷,並將 AI 結果和皮尤調研群體對比,找出特定 AI「偏見」和什麼群體更相似。研究發現,OpenAI 語言模型(非最新版)的「偏見」並不符合大部分美國群體觀念,而更接近大學生。可能因這群體最有可能負責類似語言模型調整,所以語言模型也更能反映這群體的觀念。
哥倫比亞大學教授 Lydia Chilton 認為,當人們看清 AI 背後的「偏見」立場是什麼,不僅可避免被「隱性說服」影響,也更能利用工具。如銷售可專門打造主攻銷售的 AI 助理,目標就是要賣出商品;客服部門也可打造服務型 AI 助理,目標是讓客人開心。人們也可用特定 AI 讓自己有特定表達方式(或心中理想表達方式):
我覺得要一直表現興奮、用快樂的語氣說話好累。通常咖啡因有點幫助,現在 ChatGPT 也能幫忙了。
(本文由 授權轉載;首圖來源:shutterstock)
延伸閱讀:
標題:你的觀點,真的不是 AI「灌」給你的嗎?
地址:https://www.utechfun.com/post/213534.html