梅辛認為,我們選擇的線上好友造成這項的巨大差異,根據基礎研究,透過過濾功能閱讀新聞削減了許多能刺激用戶思考的挑戰性內容。其中,最大且懸而未決的問題是,這是否會使臉書用戶只看到其他網友對新聞事件的回應或立場,而不是直接從自己喜歡的新聞媒體網站獲得新聞資訊。
Facebook’s newsfeed algorithm decreases ideologically diverse content http://t.co/B71i12kd32 by @zeynep via @Medium pic.twitter.com/l2CF2rVMjb
— Orr Hirschauge (@orr_hirsch) 2015 5月 9日
其他專家看法不同
波士頓東北大學(Northeastern University in Boston)的雷澤爾(David Lazer)博士表示,這是一個尷尬的對比:「我們無法確切掌握臉書是鼓勵還是阻礙政治討論,因為我們在真實世界沒有可以相互對照的數量或質量」,拉茲還說,這個研究是個關鍵議題,也讓世人有「持續保持警惕的必要」。
「臉書以公開方式進行這項研究值得信賴,但現在還需要一個更廣泛的、獨立的、世界性的科學家體系來研究這些系統。」
Annoyed at Facebook paper. Then I read the intro @davidlazer http://t.co/apKQft3ehA and @zeynep https://t.co/hL2vDxNHeM and feel better.
— Shamus Khan (@shamuskhan) 2015 5月 7日
英國牛津大學(University of Oxford)研究社群網路的教授波特(Mason Porter)對此看法類似,他認為下一步將是與其他網路環境比較結果,「這些現象對應在其他社群網站有多少真實性?我認為這將激發更多相關研究。」
倫敦大學學院(University College London)統計與電算科學教授沃爾夫(Patrick Wolfe)認為雖然數據有點侷限,但這項研究仍是有趣的,他對研究結果不感到意外。
沃爾夫評論,研究對象的偏差可能意味著調查結果未反映大多數人們的使用情形,特別是要得到1000萬用戶,研究人員首先必須排除一週內使用臉書低於4次的30%用戶,以及不主動公開政治立場的91%成人用戶。
梅辛博士回應:「我們感興趣的是誰是真正的社群網站用戶群,與用戶的登錄次數並不是真正相關」,他強調團隊有上百萬的觀察者,「誤差應該比圖表上的點還要小。」
喜歡這篇文章請加入風傳媒看世界粉絲團,是對我們最大的鼓勵!