面對“大數據殺熟”等亂象,我們需要什麼樣的“算法”

面對“大數據殺熟”等亂象,我們需要什麼樣的“算法”

您是否有過類似經歷:在求職網站填寫一份有關工作喜好的調查,網站會自動推送匹配的崗位;打開購物軟件,發現頁面上多是近期搜索或瀏覽過的商品;通過App閲讀一條養生信息,隨後便會經常收到養生知識、養生產品的廣告推送……伴隨着信息技術迅猛發展、大數據廣泛應用,算法推薦技術正在將人們帶入個性化、定製化、智能化更強的信息傳播時代。

因為算法推薦,互聯網平台越來越能抓住用户的心,幫助人們更加方便、精準地獲取信息,也牢牢吸引了用户的注意力。據不完全統計,當前基於算法的個性化內容推送已佔整個互聯網信息內容分發的70%左右。算法推薦逐漸成為各平台“基本操作”的同時,諸如低俗劣質信息精準推送、“大數據殺熟”等亂象也凸顯出來。

作為數字經濟的重要推動力,算法如何實現更高質量發展?移動互聯時代,我們究竟需要怎樣的“算法”?

互聯網平台越來越“懂”用户了嗎?

“看完一個短視頻後,平台會自動推薦很多相關視頻,很方便。”在北京一家企業工作的陳輝是某款網絡對戰遊戲的“發燒友”,平時喜歡通過手機觀看相關短視頻來提高操作水平。他發現,隨着刷短視頻的頻率增加,平台推薦的相關視頻越來越多,“遊戲攻略、英雄介紹、對戰視頻都有,電商平台還會推薦鼠標、鍵盤。”

這些平台的自動推薦功能,運用了一種叫算法推薦的技術。這是一種通過人工智能分析和過濾機制對海量數據進行深度分析、完成信息內容與用户精準匹配的技術。

自從1994年美國明尼蘇達大學研究組推出第一個自動化推薦系統,算法推薦技術如今已深入到資訊、社交、電商、短視頻、搜索引擎等平台和互聯網應用中。

互聯網平台變得越來越“懂”用户,在極大方便用户獲取信息的同時,也容易引發一些用户尤其是青少年不同程度的沉迷問題。

“説好只看5分鐘,結果一刷就是幾小時。”貴州省貴陽市的林忠信説,他12歲的兒子最近迷上刷一些惡搞的短視頻,不僅影響學習成績,與同伴一起進行户外活動的時間也少了。

從去年5月底開始,全國主要網絡短視頻平台中推廣青少年防沉迷系統。在“青少年模式”下,大多數平台主要推送教育類、知識類等有益內容。但是,在缺乏監護人照管監督的情況下,防沉迷系統效果容易打折扣。

有受訪者反映,一些新聞資訊、網絡社交等平台的個性化推送存在“泛娛樂化信息多、低俗內容多、未經核實內容多”的“三多”現象;一些網絡社交等平台防沉迷手段較少,容易導致青少年沉迷和盲目模仿。

北京大學中國社會與發展研究中心主任邱澤奇對記者表示,對自我的偏好是人類認知偏好的一部分,“偏好”閲讀可能加速形成“信息繭房”效應和“情緒傳染”效應,前者易導致視野侷限,後者易使個人情緒受他人感染。

一些喜歡網購的人還可能因遭遇“大數據殺熟”而蒙受損失。一些平台利用算法技術給不同類型消費者數據“畫像”,判斷其偏好、用户黏合度、價格敏感度等,使不同用户看到的價格或搜索的結果不同。通常是老用户看到的價格比新用户貴,或搜索到的結果比新用户少。

今年“雙11”期間,北京消費者韓女士發現,她通過某App預訂一家酒店,“同一時間,不同手機”預訂,價格相差約1000元。

9月中旬,微博上發起的一個投票顯示,有1.5萬人認為自己遇到價格明顯差異的情況,佔所有投票人員的近八成。

“算法”是中性的,問題出在人身上

算法技術的重要意義在於,將此前基於人力的“人找信息”轉變成基於電腦自動化運算的“信息找人”,既極大解放了人力,又更高效地完成了人和信息的匹配。

從2012年起,互聯網平台今日頭條在業內較早將算法推薦系統應用到資訊領域的產品中,實現了系統的自動學習推薦。據今日頭條算法架構師曹歡歡介紹,推薦系統綜合考量內容特徵、用户特徵、環境特徵等因素進行決策。例如,環境特徵包括上班期間、上班路上、下班休息等不同場景下用户的興趣偏好信息。

為幫助用户發現更多興趣點,今日頭條不斷引入多領域的優質內容生產者,並運用算法推薦給用户;推出“靈犬”反低俗助手,剔除低俗信息。推薦系統還增加了消重和打散策略,前者旨在消除內容相似文章推薦,後者降低了同領域或主題文章的推薦頻率。

不過,在頭部互聯網平台切實嚴格自律的同時,仍有一些採編流程不規範、管理不嚴的網絡社交媒體、新聞客户端在業務導向上走偏了。主要表現在:

——向用户推薦劣質信息。部分平台為留住用户,不斷向用户推薦其關注過的相似內容,其中摻雜低俗媚俗、色情暴力、真假難辨、缺乏深度、價值觀導向錯亂等信息。一些互聯網平台為增加點擊率和流量,還會進行人工推薦,主動推薦“博眼球”、打“擦邊球”信息,很多用户直呼“辣眼睛”。這反映出一些平台社會責任感缺失,更忽視了價值觀建設。

——增加用户權益保護難度。一些算法推薦的內容過度強化用户偏好,影響了用户對於信息內容的自主選擇權,加劇“信息繭房”效應,極易造成個體與社會的隔離,缺乏對當下國情世情的深刻認識和判斷。由於依託於用户瀏覽記錄等數據,算法推薦若設計不當,還可能侵犯用户個人隱私。

——進行“大數據殺熟”。中國傳媒大學大數據研究中心教授沈浩介紹,對於算法而言,通過用户數據量以及數據更新頻次,可輕易判斷出是“生客”還是“熟客”。結果是平台大賺,商家、消費者利益受損,還容易導致壟斷。

作為一項技術應用,算法推薦是中性的,問題出在設計者、操作者身上。

一方面,奉行“流量至上”的單一價值導向。一些平台為應對競爭,將用户停留時間作為重要考核指標,忽視了自身作為“把關人”的角色定位。而“把關人”必須用積極健康、符合公序良俗的價值觀,指引算法推薦的設計和應用,方能確保推送內容價值導向正確。

另一方面,過度追求“利益至上”,利用其信息不對稱優勢侵犯消費者合法權益。這是一個需要引起足夠重視的法律問題。

“一些算法的頂層設計思路存在問題。”中國社科院信息化研究中心主任姜奇平對記者表示,英國著名數學家、邏輯學家圖靈等學者在勾畫人工智能圖景時提出,人和機器是對等、雙向互進的關係,但現在一些算法設計呈現出人與機器的關係是單項的。比如在大數據方面,迷信相關分析,忽略因果分析。在定義算法效率方面,只把專業化效率定義為效率,而實際上多樣化效率也是一種效率。

大數據、算法推薦應更有“温度”

有網友最近在一個問答平台發文稱,自己在某社交平台和朋友聊天時提到了一款掃地機,隨後該平台出現了掃地機器人的廣告。在跟帖中,很多網友疑問:“平台是否可能利用算法等技術,抓取用户聊天記錄進行廣告精準投放?”

App專項治理工作組專家何延哲今年9月表示,四部委App專項治理工作組在對App多批次檢測中尚未發現App有“竊聽”行為。但App“竊聽”在技術實現上是有一定可能性的,相關部門有必要出台規定,明確企業進行大數據“畫像”時能否使用個人語音信息,讓用户更放心。

從另一角度看,社會輿論的疑問其實指向了大數據、算法等技術應用的價值導向問題。如何規範使用大數據、算法技術,讓其變得更有“温度”、更讓人放心?需要建立起一套行之有效的監管體系、評價系統,確保算法設計者、操作者以健康、正確、積極的價值觀,指引算法推薦的設計和應用。

相關立法和監管亟待加強,特別是要強化對算法推薦本身的法治監管。

例如,正在公開徵求意見的《個人信息保護法(草案)》規定,個人認為自動化決策對其權益造成重大影響的,有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。

11月10日,國家市場監管總局發佈的《關於平台經濟領域的反壟斷指南(徵求意見稿)》規定,基於大數據和算法,根據交易相對人的支付能力、消費偏好、使用習慣等,實行差異性交易價格或者其他交易條件;對新老交易相對人實行差異性交易價格或者其他交易條件;實行差異性標準、規則、算法;實行差異性付款條件和交易方式等,都可能被認定為“大數據殺熟”等不正當競爭行為而面臨更嚴格監管。

北京大學電子商務法研究中心主任薛軍對記者表示,應針對算法運用的場景、對公民基本權益的影響,對算法進行不同強度的監管。除了法律規定需更加明確外,可以建立某種社會化的評議機制,對平台運用算法產生的後果進行評價,要求平台基於公共價值予以優化。

壓實平台的社會責任。曹歡歡表示,今日頭條已不完全依賴算法推薦,而是一個綜合“算法+熱點+搜索+關注”的通用信息平台,以幫助用户拓展興趣。用户還可以選擇關閉“個性化推薦”按鈕或“永久清除歷史行為”,自主選擇獲取信息的方式。

“應該在算法技術內講價值倫理,把人之為人的一面當作技術本身來考慮,倡導企業在商業行為中履行社會責任。”姜奇平認為,對算法推薦技術和平台的監管應確保公平和效率、個人信息開發與保護、個人信息與平台信息等方面的平衡,在促進數字經濟服務業態健康發展層面考慮,可按照個性化信息服務所得和付出的均衡原則進行政策調整。他建議,確保消費者對信息採集者的服務好壞有評判權,使消費者始終處於主動地位。

有專家認為,監管部門應督促企業調整業務邏輯,將正面價值取向、用户高品質追求作為關鍵標籤納入算法頂層設計之中;政府、學校、家長、平台各方應責任共擔,不斷提升青少年網絡素養。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 3638 字。

轉載請註明: 面對“大數據殺熟”等亂象,我們需要什麼樣的“算法” - 楠木軒