你知道“momo”嗎?
近年來,互聯網上不知不覺湧現出一批“momo大軍”,他們用着同一個暱稱、頂着一模一樣的頭像,混跡於微信、豆瓣、小紅書、微博等各大社交平台。
這是許多年輕人隱藏身份的“馬甲”。是的,曾經以個性十足、特立獨行爲傲的那批人,現在更在意的是怎樣隱匿自己在網絡上的言行,而原因是只爲了逃脫“算法圍城”。
他們不希望“信息繭房”成爲自己的“人生第一套房”,不想讓社交媒體的分享成爲大數據窺探的窗口,不愿意付出時間和健康的代價,卻被困在一個看不見的牢籠裏。
但他們何嘗不知道,數字生存如同雪泥鴻爪,數字互聯時代,想要雁過無痕,談何容易!
“硬剛”算法的年輕人
不管承不承認,我們每個人都活在算法圍城之中。
同一份外賣,老顧客要比新會員多付幾元;同一時間的相同路程,不同手機型號的用戶單價不一;當你拿起另一半的手機,居然發現在短視頻平台看到的熱搜評論都不盡相同……
面對算法圍城,普通人有普通人的痛楚,名人有名人的煩惱。
近一年以來,農夫山泉創始人鐘睒睒以及農夫山泉頻上“熱搜”:從產品、環保議題到個人家事,不僅農夫山泉的股價應聲滑落,鐘睒睒個人也遭受了前所未有的流量“集火”。
忍無可忍的鐘睒睒在一場交流活動中隔空喊話字節跳動創始人張一鳴,直言有人利用算法“制造單一敘事和惡意對立”,並稱這種“利用科技手段、技術能力造成的惡”比普通人造成的惡要大,“是大惡”。
“他們用算法放大情緒,把復雜的問題簡單化,把不同的聲音屏蔽掉。”鐘睒睒說,這種行爲不僅破壞了公平的輿論環境,也讓公衆陷入片面認知,而受害者往往都是底層民衆。
在“網暴”面前,絕大部分人不是鐘睒睒。面對各種算法織就的網,鐘睒睒可以“隔空喊話”,普通人卻只能套上“馬甲”。
於是,越來越多的年輕人決定主動出擊,試圖“反向訓練算法”,和平台正面“硬剛”。
他們中有人“賽博哭窮”,“機票太貴了我不去了”“买不起,不买了”“9毛9,我喝得起的咖啡”;有人“喊話威脅”,給某軟件留言,“竟然殺熟,太過分了,我要卸載”;有人則是行動派,移除軟件後故意過一段時間再重新下載,以期再次享受大額優惠;還有人利用軟件生成的虛擬手機號頻繁注冊平台軟件新號,“薅新人羊毛”。
有網友表示,有些“偏方”好像真的管用,發牢騷、抱怨價格、卸載重裝,一套流程走完能省下一筆不小的費用。在小某書,隨處可見諸如“罵機票專用帖”等熱門經驗分享。也有人覺得這一切都是徒勞,到頭來還是被平台用算法“收割”。但不管怎樣,他們樂此不疲,並美其名曰“反向馴化大數據”“用算法打敗算法”。
“反向馴化”其實見效甚微
“反向訓練算法”有沒有用?《中國科學報》就此咨詢了算法專家。得到的答案,恐怕要給大家澆一盆冷水。
“‘反向馴化大數據’這類做法可能僅僅對一些簡單的算法有效果。”中國科學院自動化研究所副研究員、武漢人工智能研究院算法總監吳凌翔說,平台會根據用戶大量的歷史信息、IP地址、社會關系、手機型號等做算法推薦,如果用戶不了解算法機制,很難“反向訓練”。
中國傳媒大學媒體融合與傳播國家重點實驗室媒體大數據中心首席科學家沈浩則認爲,用戶通過主動關閉定位、禁止後台調取通訊錄等方式能起到一定的屏蔽作用,但試圖通過調整標籤、更換人設來“迷惑”算法,可能適得其反,新的“人設”還會出現新的“信息繭房”。
事實上,許多軟件都給了用戶選擇取消“個性化推薦”的功能,但由於這項功能於平台而言太過重要,往往隱藏較深。
而在沈浩看來,取消個性化推薦也不能根治“信息繭房”。
“不推薦、表示‘不感興趣’也是一種推薦。”沈浩告訴記者,算法是基於用戶數據驅動的,每個人都或多或少被“困”在“信息繭房”裏,只不過感知程度不同。
北京航空航天大學計算機學院教授王靜遠直言,自己雖然沒有專門研究過用戶對抗算法推薦的做法,但他對出現的這種現象並不感到意外。
“這反映了一些算法對用戶信息的收集和利用有些過分。”王靜遠對《中國科學報》說,當平台逼得用戶連頭像、暱稱這些基礎信息都要隱藏,說明用戶的一切痕跡都有可能被作爲特徵而提取,“用到極致了”。
在採訪中,專家們不止一次提到“算法中立論”,認爲算法無罪,罪在利益相關方。但是,當每一次點擊、每一句評論,甚至每多停留一秒鐘,這些痕跡都成了平台訓練算法的“養料”;當外賣、網約車等平台被大數據操縱,喫什么、去哪裏都被“讀心術”安排得明明白白;那么在被浪費的時間、被挑撥的情緒、被掏走的“冤枉錢”面前,用戶眼中的算法就不再是“中立”的,而是越來越大的“牢籠”。
“當一切痕跡都在利益驅使下過度商業化時,自然會有反抗。”王靜遠說。
“舊病未愈,又添新疾”
一邊是平台利用算法精准織網,一邊是越來越多的人开始覺醒與反抗。野蠻生長的算法亂象,正被社會全方位審視。
近日,中央網信辦、工信部、公安部、市場監管總局四部門聯合部署开展“清朗·網絡平台算法典型問題治理”專項行動,重點整治“信息繭房”、操縱榜單、利益侵害、大數據“殺熟”、算法推薦等典型問題。
但如果回溯大數據興起之時,“算法治亂”一直都有。
早在2018年,美國臉書首席執行官馬克·扎克伯格在美國國會上就數據隱私、虛假信息、監管等數個議題接受訊問。當時人們已經意識到,當用戶獲得免費或者極低費用的服務時,消費者將被要求提供更多的個人數據,而這些數據被濫用的可能性會顯著增加。
我國也在2021年就出台了《關於加強互聯網信息服務算法綜合治理的指導意見》《互聯網信息服務算法推薦管理規定》等規定,明確算法治理的必要性和具體要求。而此次“清朗·網絡平台算法典型問題治理”專項行動,力度更大、問題更加聚焦。
曾經,互聯網努力爲不同人群、不同議題提供平等的交流平台,打造自由對話的多元空間。但隨着“流量至上”成了各大平台目標,它們开始借由算法之手不擇手段,用戶隱私信息得不到保護的問題浮出水面。
近年來,隨着大語言模型技術進步、生成式人工智能服務興起,若人工智能(AI)技術不加規範,會帶來許多新問題:AI換臉詐騙、AI造謠、AI偏見歧視、AI語言暴力等。尤其是當生成式人工智能服務的對象是未成年人和老年人時,將會面臨更大的風險。
據外媒報道,創辦於2021年的Character.AI平台,近期就因开發的“情感陪伴聊天機器人”而官司纏身。今年10月,Character.AI在美國佛羅裏達州一名青少年自殺事件中“扮演了某種角色”;12月,美國得克薩斯州一對父母決定起訴它“教唆未成年人殺害家長”,他們稱機器人聊天工具讓未滿18歲的青少年“過度接觸了色情、血腥暴力等不良內容”。
能否打开算法“黑箱”?
面對算法“作惡”,鐘睒睒呼籲“算法應該明白無誤地公之於衆”。他認爲,沒有一種標准是不可以公布的,應該公布並讓所有使用者評價其意義。
但公开算法,就能打开“黑箱”、制止亂象嗎?
吳凌翔告訴《中國科學報》,算法並不像外界理解的那樣是徹底不透明的,一般都會通過發表論文、學術會議分享、公开課等公开其原理。但是,即便是常見的推薦系統,背後的算法機制也非常復雜,常常“不是一兩個部門的事”,即便是开發者也未必全能搞清楚。反倒是AI檢索增強生成的內容,現在的技術手段可以溯源——通過關聯標記能夠獲取它是基於哪些數據和信息“習得”的。
王靜遠也同意,算法機制問題並不像想象的那樣簡單。“比如深度學習本身就是一個‘黑箱’,即便开發者也不清楚其中原理。”
事實上,對於算法工程師而言,真正的“黑箱”不在算法原理之中,而在數據與平台機制的設置之中——當用戶量增大、數據變多,平台機制逐漸向利益“妥協”,久而久之便產生了“算法亂象”。
“算法始終是算法設計者意志的反映,是平台意志的反映。”北京大學數字治理研究中心主任邱澤奇在接受《中國科學報》採訪時說。言外之意,復雜的算法問題背後潛藏的是平台“無形的手”。
就如鐘睒睒所遭遇的那樣,“當你打开這些平台,看到的總是同樣的內容”“很多惡是人爲造成的”。
不得不提的是,許多平台型軟件在誕生之初,都肩負着改造社會的使命。不可否認,這些軟件已經成爲人們數字生活中的基礎設施,但在巨大的發展慣性下,平台自發性選擇了阻力最小、收益最高的方向,輕視乃至忽略了社會價值。在這種嬗變之中,算法的用途逐漸跑偏。
“在算法訓練中,目標導向是關鍵因素。”王靜遠告訴記者,人工智能算法在設計時,會要求开發者設置一個目標函數,訓練算法時會盡最大可能優化這個目標函數。如果算法以提高調度效率爲目標,在模型優化過程中就會犧牲其他因素來追求高效;如果以精准的個性化推薦爲目標,就不可避免地出現過度收集和利用信息的問題。
信息大爆炸時代,算法的篩選和過濾無疑迎合了爲大腦“降本增效”的剛需。然而,當精准“捕捉”用戶已無法滿足平台的胃口時,殺熟成了平台“向前一步”的試水。王靜遠提到,平台通過“精准營銷”爲不同消費水平的顧客推薦不同價位的產品尚情有可原,但通過分析用戶經濟能力進行“個性化定價”的歧視行爲就令人難以接受了,這在技術上能夠且應亟須加以規避。
走向共同治理
在訪談中,幾位專家不約而同談到,除了人爲濫用算法制造矛盾和對立外,算法更多是在復刻社會的現實問題。
“坦率地講,算法就是幫你算數。你寫了一套程序,它幫你把一些說不清、道不明的規律從數據裏‘扒’出來。我的觀點是,算法不會作惡。”邱澤奇說,問題的關鍵是數據和算法的匹配以及算法的調試,“說到底,都是人在忙活”。
他提出,不同的人雖然在使用同一個軟件平台,但每人對數據的貢獻和得到的反饋,在量和質上都有差異;而當算法應用數據時,便會復刻現實社會的結構,甚至放大現實社會的問題。
基於此,他認爲有兩條路可以嘗試解決算法問題:一是對真實數據進行權重配置,二是調試算法進行糾偏。
“算法是人寫的,是可以調整的。在方法意義上,算法是工具。”邱澤奇認爲,工具是否適用是可以做交叉檢驗的,在技術上並不難實現。
有研究指出,算法黑箱、算法權力、算法陷阱等亂象很可能會成爲數智經濟負外部性的深層來源。此時,“算法向善”就成了全社會的共同呼喚。
在邱澤奇看來,“算法向善”包括四個關鍵概念:首先是改進,這是平台承擔社會責任和社會價值的必然要求;其次是普惠,利益相關者的收益不提高,平台經營就是竭澤而漁;再次是包容,關注數智弱勢群體,不只是平台的社會責任,也是人類價值的體現;最後是誠信,這是數智社會的底线規則,沒有人類之間的誠信,算法只會成爲人類自我欺詐的武器。
他坦承,通往“算法向善”的道路曲折而遙遠,需要多方共同努力。
“首先需要解決平台和算法設計者的認知問題。”邱澤奇提出,前提是要着眼於保護各方的利益:在平台內部,建立平台業務的社會後果評估機制,不限於經濟產出評估;在平台與社會之間,建立與利益相關者的協商溝通機制;在平台外部,建立平台社會評價機制,等等。
吳凌翔提出了類似建議,她認爲算法治理需要搭建一個用戶、平台、專家共同參與、共商機制的平台,促進通過對話達成共識。此外,她認爲用戶反饋機制和參與機制非常重要,這是社會治理的一種體現。
技術層面也有施展空間,以推薦算法爲例,吳凌翔說,不僅要提升數據的多樣性和豐富度,還可以對算法進行公平性約束、增加敏感性分析,並通過評估監測推薦系統內的不同環節,增加敏感性分析等方式,從技術角度對算法糾偏。
應對生成式內容帶來的合規需求,王靜遠提到,現階段重要的議題之一是要發展負責任的AI相關研究,其中既包括AI可解釋性、公平性、泛化性的研究,也涉及安全可控方面的議題。但目前該領域面臨着社會關注度不高、投入較少的尷尬局面。
“只有把蛋糕做大,才有蛋糕可分。”邱澤奇認爲,治理與發展本就是一場拉鋸賽,當前應在促進創新的前提下,通過“問責制”調整利益分配的邏輯和份額,考慮分配的公平性問題,在鼓勵創新與促進平等之間尋求平衡。
“對於新生事物,制度建設不宜超前。”邱澤奇強調,新發展也會帶來新問題,算法治理無法一蹴而就。“一個簡單的警示和預防策略是對傷害的問責。”他強調,隨着AI深入發展,算法自身的邏輯網絡會越來越復雜,試圖就具體問題進行預防是沒有止境的。(中國科學報)
點擊進入專題: 每日深觀察責任編輯:宣遠兵
標題:這屆年輕人“隱姓埋名”,反抗算法收割
地址:https://www.utechfun.com/post/460303.html