專家熱議算法推薦,現行技術可以打破信息“繭房壁壘”

專家熱議算法推薦,現行技術可以打破信息“繭房壁壘”

“要讓算法助益信息海洋中的‘倖存者’”。清華大學新聞與傳播學院常務副院長陳昌鳳日前在復旦大學新聞學院舉辦“算法推薦與人工智能圓桌論壇”上表示,算法越來越多元。業界科技公司很少使用一種算法,而是多種不同類型的推薦算法並重,避免“繭房效應”。

陳昌鳳表示,算法是不斷優化的。Facebook、Google、“今日頭條”均已深度介入到信息的分發中,算法是科技公司傳播最重要的工具。目前各公司的優化包括有限度地開放其算法,加強透明性,如今日頭條在2018年公開了算法原理,核心是為用戶量身定製屬精準度更高的信息推薦。算法具有自身糾偏的能力,算法可以校準用戶自身的信息偏向偏好。

“經過龐大用戶樣本訓練過的算法,所推薦的內容更具專業性、更平衡客觀。巨大樣本數據量所得出的是人類的普遍興趣需求,儘管個體是存在差異,但總體趨於相似的。”中山大學傳播與設計學院院長張志安教授認為,如今日頭條在算法推薦過程中,引入社交、協同過濾等權重因素後,會將內容用戶進行顆粒度更細分的匹配,可以提升推薦準確度。算法推薦的優化和治理,需要多方參與,需要哲學指導和認知心理學指導,探索算法測量指標的優化,通過算法增強改善算法推薦的公共性和關係場景增強的多元化。

中國傳媒大學新媒體研究院院長趙子忠教授認為,人工給內容打標籤並推送效率較低,算法技術可有效提升給信息分類和分發效率,能讓有價值的內容匹配到更精準的用戶。在提升精確度的同時,通過算法協同過濾手段,可以有效避免信息窄化,打破信息繭房。

復旦大學新聞學院執行院長張濤甫教授指出,繭房是人的認知宿命,從來就有,只不過因算法流行而被我們顯著地“看見”了。算法是一種“讀心”的技術,但算法所呈現的用戶偏好,不是完整意義上的、也是不全面,算法一方面可以“走心”,也可能會“偏心”。算法滿足用戶需求,不能忽視內容端,須實現用戶和信息之間的鏈接和匹配。從單向度、失衡的用戶重心轉移兼顧對內容的考慮。而且,在實現用戶和內容鏈接之前,需要在內容層面進行內容評價或者“垃圾分類”,將“劣幣”、垃圾信息過濾,避免趣味下沉和“劣幣驅逐良幣”。

復旦大學新聞學院孫少晶教授認為,我們在談論信息繭房,實際上與人的認知來源多元性相關。我們在討論這些多元性的時候,會涉及評價指標的問題。評價指標來自工程的,來自心理學,來自傳播學,來自人文科學的,不同的指標差異非常大。算法技術不是鐵板一塊的,不同的算法,指標和角度是不同的。以前學者在研究的時候,更多過多關注單一信息源的影響。在現在的環境裡,每個人的信息源都是多種多樣的,我們要回歸到複合信息消費環境裡去討論問題。我反覆強調一點,我們需要更多方面的觀點的交鋒。

復旦大學計算機學院教授肖仰華認為,以業界實踐案例看,信息繭房是可以解決的。出現信息繭房的根本原因是目標單一,而現在很多的算法機器模型可以有效的捕捉來自數據中很多隱藏的特徵,使得特徵工程代價極大降低。在優化、人為篩選目標的同時,輔以多樣性目標引導,破除繭房的壁壘。未來,人工智能最重要的使命是補全在用戶端產生的數據背後的複雜的因果鏈條,才能更好的服務用戶。

復旦大學新聞學院周笑教授提出,可以從5個角度弱化信息繭房效應。 一是內容角度,谷歌多年前建數字圖書館,聚集全世界的內容,有效突破繭房效應;二是用戶角度,龐大的用戶規模能弱化繭房效應;三是暗知識、暗變量,通過環境特徵協同特的提取;四是立場轉化,激發用戶主動參與進行內容分類;五是通過跨學科從技術人文多個角度去引導算法,用有限性提升有效性。

復旦大學法學院李世剛教授分享了在網絡上進行蒐集個人的信息的情況下,如何平衡和保護消費者以及用戶的隱私的內容。網絡安全法第41條有規定,蒐集個人的信息符合合法、正當和必要的三原則。消費者權益保護法也有此規定,最新的民法典法案也有三原則:合法、正當和必要的規定。但現實中,操作執行卻很困難。用戶是否可以拒絕推送?蒐集信息到底蒐集哪些信息?是不是所有信息都可以蒐集?包括所謂最敏感的信息,所以,未來的行業規範建設任重道遠。

(經濟日報 記者:李治國 責編:胡達聞)

相關推薦

推薦中...