這是可用 AI 複製「一切」的時代:從聲音、外表和風格,到某些想法或選擇。現在 AI 甚至能複製「個性」,且相當準確。
史丹佛大學和 Google DeepMind 研究員發表新論文,用 AI 創建「有個體態度和行為」的虛擬複製品,稱之為「通用計算代理」。訓練「代理」的只是一次兩小時的對談。
研究由史丹佛大學博士生樸俊成(Joon Sung Park)主導。研究員與某徵才公司合作,分層抽樣招募 1,052 名參與者,每位都用英語完成兩小時語音訪談。
研究員選擇社會學家擬定的訪談協議,內容包括個人生活故事和對當代社會問題的看法。為了量化訪談內容,控制實驗變量,團隊將每位受試者的回答字數限制在 6,491 字。
且發問者由 AI 扮演,大致框架和時間限制內,「人工智慧面試官」會根據參與者回答動態產生後續問題,答案就用來訓練每個個體生成式 AI 模型,也就是「模擬代理」。
(Source:)
AI 擅長「以小見大」展現複製才能?
為了驗證「代理」模仿人類個性的能力,參與者和 AI 代理都被要求完成一系列測試,如性格測試、綜合社會調查、五個社會科學實驗和五個著名的行為經濟學遊戲等。五個社會科學實驗是發表於《美國國家科學院院刊》評估生成性代理能否模擬人類的行為反應常用標準;五個著名行為經濟學遊戲有獨裁者博弈、囚徒困境等。
兩週後,參與者需「複述」以上測試回答,並用複述後內容與「代理」回答比較分析。結果顯示,AI 代理能以 85% 準確率模擬參與者回答,預測五個社會科學實驗個性特徵和結果表現出色。
雖然人類「個性」無法量化,但這項研究表明,人工智慧的確擅長「以小見大」,以少量資訊推測並較準確複製人的「個性」。
這種「代理」利弊都很明顯。好處是為社會科學學者研究時提供更高自由度,創建行為類似真實個體的數位複製品,科學家可直接用「代理」實驗或調查,無需每次都得招募大量志願者。這些「代理」也能進行道德倫理有爭議的實驗。
麻省理工學院史隆管理學院的資訊科技副教授約翰霍頓(John Horton)受訪時表示,「使用真實人類產生人物角色,然後以程式設計、模擬使用人物角色,真實人類無法做到這點」。
壞處則是,這類「代理」不可避免會被別有用心的人拿去「偽造身分」,通常會用於詐騙。更令人擔憂的是,「代理」某種意義取得人類思想和「意識」,甚至能代替本人發表觀點,將來可能會有一群「你」跑來跑去,並說出你會做的決定。
「AI 代理」不是什麼尖端技術,之前就有「數位孿生」概念。但「代理」僅需這麼少資訊量就能準確重現人的「個性」,才是需要注意和警覺的地方。
(本文由 授權轉載;首圖來源:AI 生成)
延伸閱讀:
文章看完覺得有幫助,何不給我們一個鼓勵
想請我們喝幾杯咖啡?
每杯咖啡 65 元
您的咖啡贊助將是讓我們持續走下去的動力
標題:用 AI 複製個性兩小時就夠了!但更讓人擔憂假身分能否拿去詐騙?
地址:https://www.utechfun.com/post/450944.html