超七成用戶表示曾被“算法”推薦服務困擾 別讓“算法”成爲“算計”

2024-02-05 18:50:56    編輯: robot
導讀 河北省邯鄲市永年區洺州小學的孩子們展示網絡安全手抄報。胡高雷攝(人民視覺) 廣東省韶關市一家企業員工正在通過數據“算法”組織生產。張明偉攝(人民視覺)   你是否有過這樣的經歷:閱讀一條新聞,同類新...

河北省邯鄲市永年區洺州小學的孩子們展示網絡安全手抄報。胡高雷攝(人民視覺)

廣東省韶關市一家企業員工正在通過數據“算法”組織生產。張明偉攝(人民視覺)

  你是否有過這樣的經歷:閱讀一條新聞,同類新聞便源源不斷推送過來;瀏覽一件產品,產品廣告就會接踵而至;甚至,不經意間聊到某話題,相關信息也會紛至沓來,手機好像無時無刻不在記錄着你的只言片語……這些都不是巧合,而是“算法”計算的結果。

  因爲“計算”,用戶獲取信息成本大幅降低,網絡服務更加精准高效。然而,越來越多用戶擔心被“算計”,日益關注“信息繭房”“大數據殺熟”“誘導沉迷”等問題。“別讓‘算法’成爲‘算計’”成爲網民共同心聲。

  痛點

  “流量至上”引發亂象

  最近,北京市民王蘭遇到一件令人啼笑皆非的事情:兒子睿睿還不到10歲,手機卻頻繁收到各種相親信息。追根究底,原來是兒子前幾天誤點了一則相親廣告。這讓王蘭感到擔憂:“網絡對用戶信息的收集已到了無孔不入的程度。”

  大學生宋凡不久前下載了一款閱讀軟件。打开後,一篇標記着“您可能感興趣”的小說被推送至界面。“這不恰好是我喜歡的作者嗎?”他點开鏈接,一看就是一個多小時。看完後,系統又推薦了這篇小說的“番外”。不知不覺,他一連“刷”了幾個小時,連老師布置的課題都忘了寫。

  “這就是‘算法’的作用。”杭州某互聯網公司的算法工程師向陽介紹,“手機軟件可以隨時抓取用戶數據,通過智能模型分析人們的行爲、習慣和喜好,過濾掉用戶不感興趣的內容,推薦用戶感興趣的信息。”

  他透露,對一些商業平台來說,使用“算法”的主要目的是提升流量,提高收益,至於推送的信息是優質還是劣質、會否帶來網絡沉迷等問題,則不在考慮之列。“就像小孩喜歡喫糖,有些商家的唯一目標是盡可能賣更多糖給孩子,至於會不會影響健康,不是他們關心的。”

  這種“流量至上”的商業邏輯,促使一些網絡平台借助“算法”頻繁推送用戶感興趣的同質化內容,更有甚者,以博人眼球的劣質低俗內容取悅用戶。久而久之,用戶接收信息的範圍就會變窄,渠道也變得單一,從而陷入人們常說的“信息繭房”。

  除了“信息繭房”,頻受詬病的還有“算法歧視”。所謂“算法歧視”,是指在“算法”設計和應用過程中,由於偏見、歧視性數據集或其他因素導致的“不公平結果”。

  家住石家莊的劉女士,孩子在北京上大學,她每次來京探望孩子都會入住校旁一家酒店。今年初,她通過某手機軟件預訂一個房間,價格每晚近800元。可她辦入住時發現,有客人預定了同樣房型,價格只要600元。經過比對,兩人在同一手機軟件上看到的價格完全不一樣。

  “我還是這家酒店的白金卡客戶呢,非但沒有享受到優惠,反而還被‘宰’了,孩子告訴我,這叫‘大數據殺熟’!”

  “大數據殺熟”是“算法歧視”的表現形式之一。指平台利用“算法”進行用戶“畫像”, 如果用戶已是熟客,就不再需要低價吸引,同時,平台可能通過搜集消費數據檢測到用戶消費能力,從而“定向”擡高價格。向陽表示,“算法歧視”一度甚囂塵上,买機票、打網約車甚至網絡購物,都會被“大數據殺熟”,後來有關部門強力監管,這種現象才有所收斂,但目前仍在業界不同程度存在。

  難點

  “算法”違規不易評判

  有網友總結,“算法”推薦的劣質信息有三個特點:真假難辨、缺乏深度、價值導向錯亂。不少人認爲,“價值導向錯亂”是規範“算法”的最大難點。

  王軍是一位自媒體人,最近打算寫一篇關於“年輕人該不該啃老”的話題。當他打开手機,搜索這個話題時,發現多數網友都不支持年輕人啃老,這與他的觀點非常一致。

  不料,有同事告訴他,現在多數年輕人都認爲,“啃老沒什么問題,人生就是拿來享受的!”這讓王軍感到詫異,同事將手機拿到王軍眼前:“你看,滿屏都是支持啃老的觀點。”而當王軍也將自己的手機頁面展示給同事時,兩人只能面面相覷。

  “判斷用戶價值導向並非難事,有多種方法可以評價。比如,抓取用戶觀看某話題的停留時間、分析留言是正面還是負面、統計用戶點贊記錄等,都可以用來判定用戶觀點,然後依據‘內容相似度’和‘用戶相似度’,把最受認可的內容推薦到頁面上。”向陽進一步解釋,“算法”在某種程度上充當了內容“編輯”的角色,是否推送、推送給誰、推送多少,都是預先設定好的程序說了算。

  近年來,針對“算法”引發的亂象,監管部門多措並舉,通過約談、處罰、整改、下架等手段大力淨化網絡風氣。然而,如何有效通過“算法”倡導正確導向的信息,仍是有待破解的命題。

  向陽表示,雖然“算法”作爲一項技術是中性的,但其模型設計、數據分析等都離不开設計者的個人選擇,其主觀意識會潛移默化地嵌入“算法”系統。同時,由於“算法”設計具有較高的技術門檻,其設計過程有如一只黑箱,外界很難洞悉其中原理和邏輯,因此,也很難判定“算法”體現了哪種導向。

  向陽的說法不斷被現實印證。由於多數“算法”設計者不會將運算細節公之於衆,即使公开,也很難准確判定。由於缺乏專業技術知識,用戶在權益受到損害時,依法維權的成本較高。多起因“算法”引起的訴訟均沒有得到理想的判罰結果。

  “‘算法’推薦作爲一種商業祕密和技術祕密,應用過程中又往往涉及社會公共利益,如何平衡、把握對‘算法’推薦法律規制的邊界,是面臨的一大難題。”北京大學法學院副院長薛軍認爲,在司法以及行政理念上,需要將“算法”的運用作爲“算法”運營者行爲的延伸。無論運營者是否存在過錯、是否存在行政違法等,“算法”因素都應被納入追責的考量範圍。

  焦點

  凝聚合力規範“算法”

  隨着公衆對“算法”持續關注,加強“算法”規範的呼聲也越來越高。一項調查顯示,超過70%受訪者表示曾被“算法”推薦服務困擾,超過60%受訪者認爲生活中普遍存在“大數據殺熟”。絕大多數用戶認爲,“算法”推薦技術潛藏了窺探、泄露用戶個人隱私的重大風險。濫用“算法”的行爲,侵害了消費者的知情權、選擇權和個人信息權益,也給網絡空間的傳播秩序帶來負面影響。

  在這個背景下,一些用戶希望關閉“算法”推薦功能,停止將個人信息分享給平台使用。在有關部門督導下,各大網絡平台都上线了關閉“算法”推薦的功能,將是否收集用戶偏好的選擇權交還用戶。

  然而,平台個性化推薦存在關閉難等問題。上海市消保委曾對消費者常用的10款手機軟件开展爲期8個月的專項測評,結果顯示,關閉個性化推薦最多需7步。

  記者登錄幾個下載排名靠前的主流手機軟件,目前關閉“算法”推薦功能的方式主要是通過“個人設置”來操作。操作步驟與此前調查結果一致,大多仍需要5—7步。記者隨機採訪了20名手機用戶,絕大多數表示並不知曉手機軟件還有關閉“算法”推薦的功能,只有1位用戶知道該功能並懂得具體操作。

  “這種現象反映了業界的矛盾心理,一方面不希望用戶大規模關閉‘算法’,另一方面也意識到,只有規範才能長遠。”向陽說,規範“算法”,需要社會各界發揮合力,尋找最大公約數。

  “有效治理‘算法’亂象,是構建安全清朗的網絡生態的必然要求。”中國政法大學副教授鄭玉雙表示,要健全“算法”的法律規制模式,破解“算法”的法律規制難題,實現算法善治。

  “對於‘算法’運用是否產生不良後果,要建立一種社會性的評議機制進行持續性的跟蹤研究。如果社會評議機制有充分的理由,認定特定‘算法’的運用導致不良後果,就應該啓動問責機制,要求相應的‘算法’運營者予以解釋與說明並作出優化。”薛軍建議。



標題:超七成用戶表示曾被“算法”推薦服務困擾 別讓“算法”成爲“算計”

地址:https://www.utechfun.com/post/328660.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

猜你喜歡