久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

算法推送新聞中的認(rèn)知窄化及其規(guī)避

 昵稱14979747 2019-11-05

  內(nèi)容提要:

  算法進(jìn)入傳媒業(yè)后,,對媒體進(jìn)行社會環(huán)境守望和議程設(shè)置的核心功能提出了挑戰(zhàn),,也即算法推送內(nèi)容對用戶信息接收的“過濾氣泡”效應(yīng)。相關(guān)實(shí)證研究表明“過濾氣泡”確實(shí)存在,,但其產(chǎn)生更多歸因于媒體內(nèi)容提供方還是用戶個(gè)人因素卻存在爭議,。本文分析了算法推送中“過濾氣泡”的雙重影響,,同時(shí)提出了算法推送“窄化”的規(guī)避路徑,為了戳破“過濾氣泡”,,媒體機(jī)構(gòu)正在積極開發(fā)測試項(xiàng)目和應(yīng)用程序,,一是改進(jìn)算法程序以保證推送內(nèi)容多樣化,二是推動算法的運(yùn)作過程透明化,,從而更利于內(nèi)容提供方和用戶意識到信息接觸的偏向性所在,,進(jìn)而監(jiān)測并控制“過濾氣泡”的產(chǎn)生,以改善人們在使用算法新聞時(shí)的認(rèn)知局限性,。

  關(guān)鍵詞:

  算法/個(gè)性化推薦/過濾氣泡/認(rèn)知窄化

  作者簡介:

  王斌,,中國人民大學(xué)新聞學(xué)院副教授、中國人民大學(xué)馬克思主義新聞觀研究中心副主任,;李宛真,,中國人民大學(xué)新聞學(xué)院2017級研究生。

  基金項(xiàng)目:

  本文系北京社科基金重點(diǎn)項(xiàng)目“智媒時(shí)代首都媒介深度融合的模式與戰(zhàn)略研究”(17XCA001),、中國人民大學(xué)馬克思主義新聞觀研究中心重點(diǎn)項(xiàng)目“互聯(lián)網(wǎng)新聞學(xué)前沿問題研究”(RMXY2018B003)的研究成果,。

 

  算法進(jìn)入傳媒業(yè)后,引發(fā)了諸多業(yè)內(nèi)變革和社會關(guān)切,。其中最核心的莫過于對傳媒社會職責(zé)的可能性影響,。媒體一直被認(rèn)為是社會的守望者,通過新聞價(jià)值判斷,、新聞選擇等新聞生產(chǎn)機(jī)制對大千世界的變動進(jìn)行環(huán)境監(jiān)測,,進(jìn)而影響公眾對大部分個(gè)人所無法親身經(jīng)歷和體驗(yàn)的事實(shí)的了解和認(rèn)知,起到了議程設(shè)置和社會協(xié)調(diào)的功能,。算法介入新聞選擇和新聞生產(chǎn)后,,使得外部世界轉(zhuǎn)化成李普曼所說的“我們腦中的世界”增加了新的影響因素,因此,,人們非常關(guān)注基于算法推送的新聞內(nèi)容是否會改變之前形成的公眾認(rèn)知框架及其社會判斷,。

  一、算法推送新聞的核心議題:智能化選擇中的“過濾氣泡”

  “過濾氣泡(Filter Bubble)”一詞最早由公民行動網(wǎng)站MoveOn.org的前執(zhí)行董事Eli Pariser提出,,他于2011年3月發(fā)布了TED演講《當(dāng)心網(wǎng)上“過濾氣泡”》,,同年5月出版書籍《The Filter Bubble:What the Internet Is Hiding from You》(過濾氣泡:互聯(lián)網(wǎng)向你隱藏了什么),。在接受著名的文化創(chuàng)意類網(wǎng)站Brain Pickings的創(chuàng)始人Maria Popova采訪時(shí),,Pariser認(rèn)為“過濾氣泡”就是人們在網(wǎng)上沖浪所處的個(gè)人化的信息世界,這是由一系列個(gè)性化的過濾器為網(wǎng)絡(luò)用戶構(gòu)造出來的獨(dú)特環(huán)境,,而這些過濾器盛行于互聯(lián)網(wǎng)①,。他認(rèn)為個(gè)性化搜索、新聞推送以及其他以用戶為導(dǎo)向的內(nèi)容限制了我們接觸新知識和新觀點(diǎn)的范圍和途徑,,并提到了自己的一次親身經(jīng)歷:他在政治思想上傾向“進(jìn)步派”,,但為了保持與自由派和保守派人士的友好關(guān)系而在Facebook上同時(shí)關(guān)注了兩派的討論動態(tài),,但是長時(shí)間下來Pariser發(fā)現(xiàn)了一件怪事,關(guān)于保守派的消息從他的新聞推送中消失了,。他意識到Facebook的算法“編輯”了新聞,,因?yàn)樗綍r(shí)點(diǎn)擊自由派的友人動態(tài)勝過保守派②。

  媒體內(nèi)容提供者,、社交網(wǎng)絡(luò)和搜索引擎都面臨著同樣問題,。例如谷歌會根據(jù)用戶過去的在線軌跡來調(diào)整搜索顯示內(nèi)容,因此,,兩個(gè)不同用戶搜索同一關(guān)鍵詞會得到截然不同的搜索結(jié)果,。Pariser說:“互聯(lián)網(wǎng)向我們展示了它認(rèn)為我們想看到的世界,但不一定是我們需要看到的世界③,?!彼杏伤惴?gòu)造的過濾器組成了“過濾氣泡”,每個(gè)人的“過濾氣泡”取決于個(gè)人網(wǎng)絡(luò)生活的獨(dú)特信息,,包括你是誰,,你做了什么,而每個(gè)人的“過濾氣泡”也決定了你在網(wǎng)上能看到什么,。公眾對“過濾氣泡”的擔(dān)憂使得媒體機(jī)構(gòu)開始反思自己在網(wǎng)絡(luò)“過濾氣泡”泛濫中所扮演的角色,,開始響應(yīng)在算法推薦的構(gòu)建中承擔(dān)算法責(zé)任的呼吁,這不僅僅是為了吸引和留住用戶,,媒體機(jī)構(gòu)嘗試還給公眾一個(gè)關(guān)于算法推薦“黑箱”如何操作的真相,,這更關(guān)乎社會責(zé)任和對公眾權(quán)利的維護(hù)。

  與“過濾氣泡”相關(guān)的概念還有“信息繭房”“回音室效應(yīng)”等,,在個(gè)性化推薦已經(jīng)成為互聯(lián)網(wǎng)內(nèi)容提供商的主要信息篩選途徑時(shí),,人們普遍表達(dá)了對算法推薦所構(gòu)建的網(wǎng)絡(luò)世界的不信任?!斑^濾氣泡”是否真的存在,?如何消除互聯(lián)網(wǎng)的“過濾氣泡”?針對這種局面,,媒體機(jī)構(gòu)試圖構(gòu)建一個(gè)關(guān)于內(nèi)容生產(chǎn)的美好圖景:不僅要展示給用戶喜歡的內(nèi)容,,也要展示出讓他們不喜歡或受到挑戰(zhàn)的信息,從而達(dá)到對信息攝入的平衡。這樣的內(nèi)容打包方式是否會為用戶所接受,,又會對他們產(chǎn)生什么影響,?

  二、算法推送中“過濾氣泡”的雙重影響

  1.算法推薦擴(kuò)大了用戶信息接觸的可能性范圍

  牛津大學(xué)路透新聞研究院發(fā)布的《2017年數(shù)字新聞報(bào)告》指出,,雖然“回音室效應(yīng)”和“過濾泡沫”現(xiàn)象無疑是真實(shí)存在的,但調(diào)查顯示,,社交媒體,、聚合應(yīng)用和搜索引擎的使用者相對非使用者來說能更多體驗(yàn)到信息的多樣性,,算法推薦能使用戶更大范圍接觸到網(wǎng)絡(luò)資源。受訪者中有一半以上(54%)傾向于使用算法而不是通過編輯或者記者來選擇接觸內(nèi)容,,且這一比例在智能手機(jī)用戶和年輕用戶中占比更高④,。讀者所能接觸到的信息數(shù)量隨著互聯(lián)網(wǎng)資源增長而增長,訊息生產(chǎn)的電子化和爆炸式增長,,決定了網(wǎng)絡(luò)算法會比“人工”編輯更加適應(yīng)互聯(lián)網(wǎng)媒體中的信息生態(tài)圈,。算法推薦擁有許多傳統(tǒng)編輯不具備的優(yōu)勢,例如對海量信息的快捷處理,,針對不同用戶喜好推出個(gè)性化內(nèi)容,,甚至利用大數(shù)據(jù)自動生成新聞。用戶對“算法推薦”的青睞更多是因?yàn)槠漤槕?yīng)了互聯(lián)網(wǎng)時(shí)代信息海洋“取之不盡,,用之不竭”的特點(diǎn)和與之對應(yīng)的媒體發(fā)展新形態(tài),。

  在牛津大學(xué)路透新聞研究院進(jìn)行的這項(xiàng)研究中,大多數(shù)受訪者認(rèn)同使用算法推薦能接收到平時(shí)不會使用的信息,,人們有時(shí)也會嘗試閱讀平時(shí)不感興趣的新聞,。使用搜索引擎閱讀新聞或者使用新聞聚合應(yīng)用的群體,習(xí)慣閱讀更多的在線新聞品牌,,其中社交媒體用戶每周訪問4.34個(gè)不同品牌,,而非社交媒體用戶每周3.10個(gè)⑤。雖然個(gè)性化推薦會根據(jù)用戶的瀏覽軌跡來推測個(gè)人喜好,,但目前的個(gè)性化推薦并未產(chǎn)生完全的“信息閉環(huán)”,,處于無形之中的“過濾氣泡”尚未能阻礙用戶獲取信息的自主性。在擴(kuò)大信息接觸范圍之后,,我們所能看到的內(nèi)容質(zhì)量才是“過濾氣泡”令人憂慮的地方,。

  2.算法推薦呈現(xiàn)出信息接收的“窄化”效應(yīng)

  矛盾的是,隨著受眾的信息接觸范圍擴(kuò)大,,社交媒體,、搜索引擎等產(chǎn)品的功能設(shè)計(jì)卻同時(shí)助長了“信息壁壘”的建立:我們可以選擇自己感興趣的內(nèi)容,管理或者屏蔽自己的好友,,這些功能都使得我們看到更多自己喜歡的東西,,而屏蔽掉與自己相左的觀點(diǎn)。也就是說即使用戶接觸到更大范圍的網(wǎng)絡(luò)資源,,但這些網(wǎng)絡(luò)信息不一定被用戶所接收和內(nèi)化,。

  更令人擔(dān)憂的是,算法推薦內(nèi)容往往缺乏對內(nèi)容的審查和把關(guān),,信息的質(zhì)量無法保證,,其中可能包含著假消息或者極端的觀點(diǎn),。麻省理工學(xué)院教授Cesar Hidalgo認(rèn)為,,社會網(wǎng)絡(luò)的“過濾氣泡”淹沒了溫和的觀點(diǎn),,卻助長了極端觀點(diǎn)的傳播,大多數(shù)溫和派在社交網(wǎng)絡(luò)中選擇保持沉默⑥,。個(gè)性化推薦的算法相當(dāng)于“黑箱操作”,,算法是否能區(qū)分“事實(shí)”與“虛構(gòu)”,是否會導(dǎo)致低質(zhì)量新聞和虛假新聞的廣泛傳播,,這是算法推薦在技術(shù)上仍需解決的問題,。

  美國明尼蘇達(dá)大學(xué)的計(jì)算機(jī)科學(xué)家們⑦從個(gè)人層面上測量內(nèi)容多樣性以考察“過濾氣泡”效應(yīng)。他們分析了明尼蘇達(dá)大學(xué)“MovieLens”電影推薦系統(tǒng)從2008年2月至2010年8月的數(shù)據(jù),,研究發(fā)現(xiàn)觀看并可能接受推薦內(nèi)容的用戶(簡稱“接收組”)和完全不接受推薦內(nèi)容的用戶(簡稱“非接收組”)從長期來看都存在推薦內(nèi)容多樣性降低的效應(yīng)(窄化效應(yīng)),。有趣的是,“接收推薦組”相對“非接收推薦組”的“窄化效應(yīng)”更弱,。Nguyen等人使用歐幾里得距離來計(jì)算電影之間的相似性,,并將“內(nèi)容多樣性”定義為用戶列表中任何兩部影片的最大距離。隨著時(shí)間推移,,“接收組”和“非接收組”的多樣性測量距離均值分別為34.36和33.73,,說明“非接收組”的內(nèi)容多樣性下降更快。

  用戶推薦內(nèi)容帶來的窄化效應(yīng)說明“過濾氣泡”真實(shí)存在,,但“過濾氣泡”產(chǎn)生的多少和用戶的使用習(xí)慣息息相關(guān),。如果用戶在使用某一平臺或綜合使用多個(gè)平臺的個(gè)性化推薦功能時(shí),能有意識地關(guān)注和瀏覽不同類別的信息,,則不僅可以促進(jìn)推薦內(nèi)容算法對個(gè)人喜好的精準(zhǔn)描寫,,還能促進(jìn)推薦內(nèi)容的多樣化,從而減少“過濾氣泡”的影響,。

  3.算法推薦效應(yīng)的復(fù)合原因

  推薦內(nèi)容存在“窄化效應(yīng)”更多是因?yàn)樗惴?,還是個(gè)人的因素?Nguyen等人⑧給出一種關(guān)于個(gè)人行為“固化”的解釋,,當(dāng)人觀看的電影越多,,會形成固定的類型偏好,另外由于優(yōu)秀的電影數(shù)量有限,,人們在尋找新電影的時(shí)候更愿意待在自己的“舒適空間”,。因此,如果人們心理上確實(shí)已經(jīng)存在對某類電影的固定偏好,,那么使用算法推薦非但沒有窄化這類用戶的接觸內(nèi)容,,反而可能擴(kuò)大他們接觸新事物的機(jī)會。

  臉書核心數(shù)據(jù)科學(xué)小組(Facebook Core Data Science Team)研究了1010萬美國臉書用戶參與共享新聞的互動軌跡,。該研究發(fā)現(xiàn):無論是保守派,、中間還是自由派人士,都傾向于擁有同質(zhì)性意識形態(tài)的朋友關(guān)系⑨。也就是說人們接觸到什么樣的信息更多取決于其他因素,,例如朋友的多樣性,,而不是搜索引擎的算法。對信息進(jìn)行過濾的原因在于人們的精力和時(shí)間有限,。Bakshy和Rosenn⑩的另一則研究則指出,,接觸到社交網(wǎng)絡(luò)分享信息的人更容易傳播信息,而且其中的弱關(guān)系正是傳播新信息的主要途徑,。也就是說人們的“過濾氣泡”不完全由算法推薦內(nèi)容產(chǎn)生,,而更可能是自我定型和限制。

  無論“窄化效應(yīng)”在多大程度上歸因于個(gè)人偏好,,在算法上的功能改進(jìn)都可以緩解或抵消推薦內(nèi)容的“窄化效應(yīng)”,。例如在算法設(shè)計(jì)上延緩“窄化效應(yīng)”,或者在推送頁面上提醒用戶應(yīng)該注重內(nèi)容的多樣性,,向用戶提供多樣性測量指數(shù),,并且目前已經(jīng)有媒體平臺或程序已經(jīng)著手測試新的推薦算法。

  相比閱讀內(nèi)容的“窄化效應(yīng)”,,我們更應(yīng)擔(dān)心個(gè)性化推薦未知的一面——對隱私的記錄以及用戶甚至不知道自己何時(shí)經(jīng)歷了“信息過濾”,。比如即使使用谷歌的“隱身模式”進(jìn)行搜索,所得到的搜索結(jié)果仍然是基于歷史搜索記錄而進(jìn)行算法過濾的(瀏覽器不可能呈現(xiàn)給用戶所有搜索結(jié)果,,這樣的成本太高),,而“隱身模式”功能僅僅是刪掉了用戶的Cookies信息和搜索歷史,并不代表谷歌刪掉了關(guān)于用戶的偏好信息,。由此造成的可能后果是:用戶可能看不見自己的過往活動記錄,,而互聯(lián)網(wǎng)卻可以通過IP地址和登錄信息來記錄用戶的行為軌跡,而這些信息可能被廣告商和政府利用,。

  三,、多樣化和透明化:算法推送窄化的規(guī)避路徑

  算法推送機(jī)制對于公眾而言目前仍是一個(gè)“黑箱”操作,人們難以決定和控制個(gè)人信息環(huán)境被算法個(gè)性化裁決的程度,,這引發(fā)了公眾對算法設(shè)計(jì)者承擔(dān)“算法責(zé)任”的呼吁,。但是每個(gè)人對于個(gè)性化推薦的看法不盡相同,個(gè)體的認(rèn)知需求和認(rèn)知偏好有差異性,,一些人要求推薦內(nèi)容變得多樣化,,而也有人更愿意看到讓自己舒心的傾向性內(nèi)容。因此,,規(guī)避算法推送帶來的認(rèn)知窄化就有兩個(gè)基本的路徑:其一是擴(kuò)大算法推送的選擇,,增加信息推送的多樣化,以便進(jìn)行認(rèn)知糾偏,;其二是公開算法的偏向性或局限性本身,,使得“過濾氣泡”的產(chǎn)生過程透明化,,進(jìn)而讓用戶自己決定“氣泡”生成的程度和對自己的影響。現(xiàn)在很多設(shè)計(jì)者開始著手改進(jìn)個(gè)性化推薦,,開發(fā)了試圖戳破和控制“過濾氣泡”的媒介實(shí)踐項(xiàng)目,。目前較為可行的辦法大致可以分為以下類別。

  1.減少或杜絕使用個(gè)性化推薦算法

  Gabriel Weinberg是互聯(lián)網(wǎng)搜索引擎DuckDuckGo的創(chuàng)始人兼CEO,,為了表示對谷歌等搜索引擎涉及個(gè)人隱私的不滿,他創(chuàng)建的搜索引擎DuckDuckGo不會追蹤個(gè)人歷史和軌跡,,也就是說用戶可能會在搜索結(jié)果中看到更多的挑戰(zhàn)自己的觀點(diǎn),。Weinberg甚至建立了專門網(wǎng)頁(11)來詳細(xì)說明互聯(lián)網(wǎng)對個(gè)人行為軌跡的記錄以及隱私的泄露問題。DuckDuckGo“保護(hù)用戶隱私”的新主張吸引了小部分樂意體驗(yàn)的科技達(dá)人,,但其用戶基數(shù)與谷歌等大型企業(yè)相比仍相差甚遠(yuǎn),,尤其是算法的不透明性讓大部分互聯(lián)網(wǎng)用戶很難相信這個(gè)新鮮的搜索引擎究竟能在何種程度上保證用戶的隱私安全。但是其與主流引擎相抗?fàn)?、呼吁隱私安全的理念至少提醒了公眾對過分依賴于個(gè)性化推薦算法的反思以及對個(gè)人隱私泄露的擔(dān)憂,。

  新聞網(wǎng)站Piqd(12)則聘用了媒體、科學(xué),、政治,、經(jīng)濟(jì)等各個(gè)領(lǐng)域的專家從事新聞編輯和推薦工作,“專家編輯”們從各個(gè)領(lǐng)域精選文章并撰寫摘要和點(diǎn)評,。讀者只要點(diǎn)擊感興趣的模塊,,即可看到當(dāng)天推出的精編版新聞。Piqd不但借鑒了傳統(tǒng)編輯生產(chǎn)內(nèi)容時(shí)精選,、優(yōu)質(zhì)的特點(diǎn),,也利用了互聯(lián)網(wǎng)資源豐富、更新迅速的優(yōu)點(diǎn),。和DuckDuckGo相似,,Piqd也是小眾產(chǎn)品,是為了彌補(bǔ)個(gè)性化推薦的潛在缺陷和不能滿足的使用需求,。Piqd的精選文章和編輯導(dǎo)讀作為精讀材料能滿足部分讀者更高的知識需求,,但產(chǎn)出的主題范圍和文章篇幅有限,無法涵蓋網(wǎng)絡(luò)上所有具備新聞價(jià)值的主題,,題材上也無法滿足所有讀者的需求,。從讀者角度來說,除了每日精讀的需求,,用戶也需要依據(jù)個(gè)人偏好聚合的短訊消息推送,。在算法革命愈加深入的今天,網(wǎng)絡(luò)用戶必須依靠智能算法才能處理好繁雜的信息世界,。而完全杜絕個(gè)性化算法的產(chǎn)品,,則更像是智能生活快節(jié)奏中的一點(diǎn)調(diào)味劑。

  2.反向個(gè)性化推薦:“猜你不喜歡”

  偏左派激進(jìn)觀點(diǎn)的衛(wèi)報(bào)(The Guardian)推出一檔新聞欄目“Burst your bubble”,旨在為自由派人士推送一些保守派文章以擴(kuò)大讀者能接觸到的觀點(diǎn)視角,,但是該欄目的文章更新不定期且數(shù)量較少,,最近更新文章日期為2018年5月31日,上一篇文章更新于2018年4月13日,。與其說這是一個(gè)新聞欄目,,倒不如說是嘗試為讀者打破“過濾氣泡”的概念品,從文章更新數(shù)量和閱讀量來說都不能說是一個(gè)成功的新聞產(chǎn)品,。

  應(yīng)用程序Terra Incognita由麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)的Ethan Zuckerman,,Catherine D'Ignazio和Matt Stempeck創(chuàng)建,可以向用戶提供他們可能從不會在Google上搜索或在主流報(bào)道中看到的世界其他地區(qū)的新聞,。Terra Incognita的推薦系統(tǒng)不是基于“相似性”給用戶推送新聞,,而是基于“偶然性”。每當(dāng)打開Terra Incognita,,它都會給用戶推薦從未閱讀過相關(guān)新聞的世界其他城市,,例如日本廣島、孟加拉國達(dá)卡等等,。

  比起杜絕使用算法推薦,,這種“反偏好”推薦顯得更為激進(jìn),但是是否人性化,、是否符合用戶需求卻值得商榷了,。除非是能起到國際影響力的重要事件,作為中國用戶,,很難對孟加拉國達(dá)卡等國的社會新聞產(chǎn)生太多興趣,,隨機(jī)推送的世界新聞對特定用戶來說缺乏重要性和接近性,也許讀者會出于好奇心而花費(fèi)一些時(shí)間閱讀平時(shí)不常關(guān)注的新鮮消息,,但并不會長期花費(fèi)主要精力在非重要,、接近性低且不感興趣的事物上。因此,,基于用戶的閱讀傾向來說,,純粹為了不同而不同的“反個(gè)性化”推薦無法動搖“過濾氣泡”產(chǎn)生的根本,甚至無法改善個(gè)性化推薦中的“窄化效應(yīng)”,,而僅僅是針對用戶推出的一種新奇嘗試,。

  3.個(gè)性化推薦與多樣化內(nèi)容的打包組合

  針對“過濾氣泡”最為有效的方式,可能是基于用戶偏好有意識地增加推送內(nèi)容的多樣性,,瑞士日報(bào)NeueZürcherZeitung(NZZ)耗時(shí)半年開發(fā)了一款個(gè)性化新聞閱讀App名叫“Companion”,。這個(gè)應(yīng)用程序仍然會基于機(jī)器學(xué)習(xí)式的個(gè)性化算法為讀者選擇性提供瑞士日報(bào)的新聞內(nèi)容,并在用戶使用“Companion”的過程中不斷記錄他們的消費(fèi)習(xí)慣,。這主要是為了發(fā)揮推薦算法的優(yōu)勢——讓用戶在最短時(shí)間內(nèi)閱讀到想了解的資訊,?!癈ompanion”app的產(chǎn)品開發(fā)總監(jiān)RouvenLeuener說:“我們不想讓用戶感覺自己在經(jīng)歷‘過濾氣泡’的威脅,因此App也需要提供一些復(fù)合型內(nèi)容,?!彼浴癈ompanion”的個(gè)性化算法的不同之處在于,不僅僅推送用戶已閱讀文章的相似內(nèi)容,,還會基于已閱讀文章的含義推送一些“驚喜”的訊息(13),。也就是說“Companion”并非完全根據(jù)用戶閱讀軌跡來推送消息,其算法設(shè)計(jì)使得推薦內(nèi)容中將呈現(xiàn)用戶從未涉足的全新領(lǐng)域,。瑞士日報(bào)積極開發(fā)個(gè)性化算法的同時(shí),,也未放棄對人工編輯板塊的堅(jiān)守。

  瑞士日報(bào)編輯新聞的方式值得在媒體機(jī)構(gòu)中推廣,,由于每家媒體當(dāng)日生產(chǎn)的新聞數(shù)量有限,,結(jié)合用戶需求提供個(gè)性化推送,,并聘用人工編輯在自家媒體中篩選高質(zhì)量內(nèi)容組成精編版,,以這兩種方式為組合來滿足部分用戶對多樣化內(nèi)容的需求。然而這種操作模式在新聞聚合平臺,、大型門戶網(wǎng)站上卻不太適用,,主要是因?yàn)槠脚_上每日流動新聞太多,只能以算法推薦的形式滾動呈現(xiàn)給用戶,,而對內(nèi)容質(zhì)量和來源的把關(guān)嚴(yán)密程度則有所下降,。在這種情形下想要減少“過濾氣泡”的產(chǎn)生,應(yīng)提高個(gè)性化推薦的準(zhǔn)確程度,,并改進(jìn)算法以減輕隨時(shí)間推移而形成的內(nèi)容“窄化效應(yīng)”,,還應(yīng)提升算法甄別“假新聞”的能力,保證推送新聞的質(zhì)量,。作為閱讀新聞的用戶,,則應(yīng)當(dāng)自主地使用不同推送模式的新聞應(yīng)用,同時(shí)保證閱讀內(nèi)容的寬度和深度,。

  4.測量“過濾氣泡”程度和內(nèi)容偏向

  以上三種類型均屬于改進(jìn)算法程序以保證推送內(nèi)容多樣化的方法,,同時(shí),還有一類方法是試圖提升算法運(yùn)作過程的透明化,,以利于內(nèi)容提供方和用戶監(jiān)測并控制“過濾氣泡”的產(chǎn)生,。Ghostery是一款用于監(jiān)測用戶在線活動相關(guān)的跟蹤機(jī)制的工具。用戶使用這款小程序可以詳細(xì)了解與算法追蹤機(jī)制相關(guān)聯(lián)的潛在公司,,以及在這些追蹤機(jī)制對用戶瀏覽造成負(fù)面影響時(shí)阻止這些追蹤,。值得注意的是,某些企業(yè)或程序記錄用戶信息并非一定是壞事,,用戶信息可以用于改進(jìn)軟件和優(yōu)化用戶體驗(yàn),,這款軟件僅會對可能造成負(fù)面的“過濾氣泡”進(jìn)行阻止,。無論如何,在瀏覽網(wǎng)頁時(shí)能夠了解是誰在記錄自己的活動軌跡是必要的,,追蹤軟件的使用能讓用戶對“過濾氣泡”的概念和影響有更深入的了解,。盡管追蹤軌跡工具能幫助防止隱私外泄和了解瀏覽軌跡,但如果該應(yīng)用程序的數(shù)據(jù)庫泄露或用作商業(yè)用途,,豈不同樣是損害了用戶的隱私權(quán),,因此在使用時(shí)仍需了解清楚此類程序的運(yùn)作機(jī)制和可信任程度。

  像PopUrls或Flipboard這類被稱作新聞聚合“儀表盤”的應(yīng)用程序,,則可以幫助用戶精準(zhǔn)地控制閱讀每日新聞的方式以及閱讀內(nèi)容的多樣性,。用戶可以選擇想要查看的推送內(nèi)容并利用個(gè)性化布局功能設(shè)置優(yōu)先閱讀順序。這類應(yīng)用程序能夠讓用戶自己決定個(gè)性化推薦順序并了解到接觸內(nèi)容的多樣化程度,。把選擇自主權(quán)交回到用戶手中,,不失為一個(gè)好的辦法。這與傳統(tǒng)閱讀新聞的方式相似,,讀者在閱讀一份報(bào)紙時(shí),,可以選擇重點(diǎn)閱讀的內(nèi)容也可以選擇想要略過的部分。但這也意味著想要避免“信息壁壘”只能依靠個(gè)人自覺性,,用戶自身將承擔(dān)更多責(zé)任,。

  新聞應(yīng)用程序Read Across the Aisle在擴(kuò)大新聞內(nèi)容多元化的道路上走得更遠(yuǎn),幫助用戶形成閱讀內(nèi)容多元化的習(xí)慣,。該程序創(chuàng)建了一個(gè)包含20個(gè)左右新聞品牌的意識形態(tài)頻譜,,其中位于最左邊的是赫芬頓郵報(bào),最右邊的是??怂剐侣?,并依據(jù)該頻譜記錄用戶從這些新聞品牌閱讀新聞的頻率。該程序會顯示用戶花費(fèi)了多少時(shí)間閱讀某些來源的新聞并計(jì)算出用戶的意識形態(tài)偏向,。一旦用戶的閱讀習(xí)慣偏向左右一方時(shí),,應(yīng)用程序會發(fā)出通知建議用戶調(diào)整閱讀內(nèi)容。當(dāng)然用戶不一定要始終保持閱讀內(nèi)容的中立性,,他們有選擇價(jià)值偏向的權(quán)利,,這款軟件更多是對個(gè)人價(jià)值偏向進(jìn)行“素描”并提醒用戶。但是這款應(yīng)用程序是存在缺陷的,,首先程序?qū)π侣劽襟w意識形態(tài)傾向及其傾向程度的判斷具有主觀性,,這種判斷不一定能得到所有用戶的認(rèn)同,其次具有某種意識形態(tài)傾向的媒體并非發(fā)布的每篇報(bào)道都帶有同種價(jià)值傾向,,也有可能出現(xiàn)中立或?qū)α⒌挠^點(diǎn)或文章,,再者程序納入監(jiān)測的新聞品牌數(shù)量有限。雖然這款應(yīng)用程序的測量準(zhǔn)確度不一定可靠,,但為我們提供了測量“過濾氣泡”的一種思路,,可通過逐步納入更多的新聞品牌,,改進(jìn)意識形態(tài)頻譜計(jì)算方法等途徑來提升測量的準(zhǔn)確度。

  麻省理工學(xué)院的Cesar Hidalgo教授也為Facebook設(shè)想了一些類似的減少“過濾氣泡”的方法:例如Facebook可以開發(fā)算法以識別用戶偏見,,在推送內(nèi)容的上方設(shè)置一個(gè)“翻頁”按鈕,,點(diǎn)擊之后可以向用戶展示完全相反觀點(diǎn)的資訊;或者當(dāng)算法檢測到用戶正在關(guān)閉或者刪除某篇推送內(nèi)容時(shí),,會彈出提醒建議用戶關(guān)注相關(guān)的朋友或頁面以擴(kuò)大觀點(diǎn)視角(14),。既然算法能夠識別用戶的個(gè)人偏好并據(jù)此產(chǎn)生個(gè)性化推送內(nèi)容,同樣的,,算法也可以將收集到的個(gè)人閱讀偏好圖譜呈現(xiàn)給每個(gè)用戶,。只有了解到“過濾氣泡”的存在,我們才能應(yīng)對算法筑成的無形的“信息壁壘”,。在透明化算法機(jī)制的基礎(chǔ)上,,利用算法來識別個(gè)人偏見并據(jù)此針對性地推出多元化內(nèi)容,是解決“過濾氣泡”的關(guān)鍵方法,,也是未來個(gè)性化推薦的改進(jìn)方向,。

  隨著Google和Facebook的算法“黑匣子”及其推薦內(nèi)容備受爭議,人們越來越認(rèn)識到算法并非是中性的,。為了應(yīng)對信任危機(jī),,Google和Facebook以各種方式作出反應(yīng),,包括在新聞?lì)I(lǐng)域與獨(dú)立的事實(shí)核查人員進(jìn)行合作以及對可以戳破“過濾氣泡”的新算法進(jìn)行測試,。“數(shù)字新聞計(jì)劃”(Digital News Initiative,,DNI)就是由谷歌和歐洲出版商們建立合作關(guān)系,,從技術(shù)和創(chuàng)新方面支持高質(zhì)量數(shù)字新聞報(bào)道的一項(xiàng)資助項(xiàng)目。上文中提到瑞士日報(bào)(NZZ)的“Companion”App正是“數(shù)字新聞計(jì)劃”第一輪資助項(xiàng)目之一,?;ヂ?lián)網(wǎng)企業(yè)與媒體機(jī)構(gòu)正通力合作,試圖構(gòu)建“算法責(zé)任”以換回公眾信任,。在算法開發(fā)者的合作框架下,,算法的“透明化”進(jìn)程才有發(fā)展的可能,公眾才能更清楚地了解到算法對個(gè)人生活產(chǎn)生的影響,。

  信息技術(shù)的發(fā)展既是個(gè)性化推薦算法的基礎(chǔ),,也是未來完善個(gè)性化算法的助力器。媒體組織和互聯(lián)網(wǎng)企業(yè)在多個(gè)方面的行動讓我們看到了“過濾氣泡”被控制和透明化的可能,,然而在努力戳破“過濾氣泡”的行動中,,仍存在兩點(diǎn)擔(dān)憂:一是在大部分算法都處于“黑箱”操作的背景下,聲稱可破除“過濾氣泡”的算法程序大受公眾歡迎,,例如搜索引擎DuckDuckGo和追蹤用戶軌跡軟件Ghostery,,但我們又能給予此類算法程序多少信任呢,?二是互聯(lián)網(wǎng)“過濾氣泡”是否真的能被消除?我們將“過濾氣泡”的產(chǎn)生歸咎于算法的偏見,,但其實(shí)也部分源于人類自身既有的認(rèn)知壁壘和觀點(diǎn)極化傾向,。麻省理工學(xué)院公民媒體中心研究員Nathan Matias將“過濾氣泡”的定義引申到現(xiàn)實(shí)生活中,即使我們不生活在互聯(lián)網(wǎng)制造的“氣泡”之中,,也難逃現(xiàn)實(shí)環(huán)境中觀點(diǎn)的偏見和局限(15),。媒體機(jī)構(gòu)盡其所能地為用戶提供客觀多元的新聞產(chǎn)品,但信息的接收和內(nèi)化仍取決于個(gè)人,,是否能消除“過濾氣泡”最終將依靠個(gè)人的選擇,。我們目前所能確定的是,這些不斷改進(jìn)推薦算法的行動也許無法完全消除“過濾氣泡”,,但至少能提醒我們暢游互聯(lián)網(wǎng)時(shí)也正身處“過濾氣泡”之中,。

  ①M(fèi)aria Popova(May.12,2011).The Filter Bubble:Algorithm vs.Curator & the Value of Serendipity.Retrieved Jan.19,2018,from Brain Pickings,https://www./2011/05/12/the-filter-bubble/.

 ?、贐ianca Bosker(Mar.7,2011).Facebook,Google Giving Us Information Junk Food,Eli Pariser Wams.Retrieved Jan.19,2018 from The Huffington Post,https://www./2011/03/07/eli-parisefacebook-google-ted_n_832198.html.

 ?、跙ianca Bosker(Mar.7,2011).Facebook,Google Giving Us Information Junk Food,Eli Pariser Warns.Retrieved Jan.19,2018 from The Huffington Post,https://www./2011/03/07/eli-pariser-facebook-google-ted_n832198.html.

  ④Nic Newman with Richard Fletcher,Antonis Kalogeropoulos,David A.L.Levy and Rasmus Kleis Nielsen.Reuters Institute Digital News Report 2017,2017:16,http://www./.

 ?、軳ic Newman with Richard Fletcher,Antonis Kalogeropoulos,David A.L.Levy and Rasmus Kleis Nielsen.Reuters Institute Digital News Report 2017,2017:43,http://www./.

 ?、轘ally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble'.Retrieved Jan.19,2018 from New Scientist,https://www./article/2113246-how-can-face-book-and-its-users-burst-the-filter-bubble/.

  ⑦TienT.Nguyen,Pik-Mai Hui,F.Maxwell Harper,Loren Terveen,Joseph A.Konstan.Exploring the filter bubble:the effect of using recommender systems on content diversity.In Proceedings of the 23rd international conference on World wide web(WWW '14).ACM,New York,NY,USA,2014:677-686.

 ?、郥ienT.Nguyen,Pik-Mai Hui,F.Maxwell Harper,Loren Terveen,Joseph A.Konstan.Exploring the filter bubble:the effect of using recommender systems on content diversity.In Proceedings of the 23rd international conference on World wide web(WWW '14).ACM,New York,NY,USA,2014:685.

 ?、酔ytan Bakshy,Solomon Messing,Lada A.Adamic.Exposure to ideologically diverse news and opinion on Facebook.Science,2015,348:1130-1132.

  ⑩Eytan Bakshy,Itamar Rosenn,Cameron Marlow,Lada Adamic.The role of social networks in information diffusion.In Proceedings of the 21st international conference on World Wide Web(WWW '12).ACM,New York,NY,USA,2012:519-528.

  (11)網(wǎng)頁地址參見privatebrowsingmyths.com

  (12)網(wǎng)頁地址參見www.piqd.com

  (13)Mdlina Ciobanu(Mar.3,2017).NZZ is developing an app that gives readers personalised news without creating a filter bubble.Retrieved Jan.19,2018 from Journalism.co.uk,https://www./news/nzz-is-develop-ing-an-app-that-gives-readers-personalised-news-without-creating-a-filter-bubble/s2/a700550/.

  (14)Sally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble' Retrieved Jan.19,2018 from New Scientist,https://www./article/2113246-how-can-facebook-and-its-users-burst-the-filter-bubble/.

  (15)Sally Adee(Nov.18,2016).How can Facebook and its users burst the 'filter bubble'?.Retrieved Jan.19,2018 from New Scientist,https://www./article/2113246-how-can-facebook-and-its-users-burst-the-filter-bubble/.

 

    (原文刊于《新聞與寫作》2018年第9期)

 

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點(diǎn)擊一鍵舉報(bào),。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多