「越來越多人在社群網站上發布並轉貼新聞連結和資訊,我們希望可以量化人們所分享的、不同立場的新聞內容種類,以及人們在何種程度會實際閱讀它。」
臉書(Facebook)數據科學家梅辛(Solomon Messing)
全球最多使用者的社群網站臉書(Facebook)內部研究人員正進行一項調查,考量臉書是否有必要為用戶過濾不同立場的政治新聞內容。
批評者憂對民主發展不利
調查顯示,臉書的「新聞發表演算法(news feed algorithm)」試圖篩選出一些具有挑戰性的項目,但對於決定用戶是否點擊新聞連結的影響卻不顯著。截至目前為止,大多數網友選擇點擊連結的原因在於好奇「跨政治立場(cross-cutting)」內容,其他專家贊同這項研究的同時,也呼籲更多、更廣泛的研究投入。
這項新研究的動機備受爭議,過濾功能恐讓臉書用戶接觸到的新聞連結流於一言堂。批評者認為,過濾用戶選擇點擊的新聞內容對民主發展和公眾討論將產生不良影響。
「越來越多人在社群網站上發布並轉貼新聞連結和資訊。」臉書數據科學家梅辛(Solomon Messing)說明:「我們希望可以量化人們所分享的、不同立場的新聞內容種類,以及人們在何種程度上會實際閱讀它。」
梅辛及其研究團隊研究臉書1010萬名用戶,從其他挑選出9%在個人資料公開政治立場的成人,例如標記自己「自由」或「保守」等。
Exposure to Diverse Information on Facebook by Eytan Bakshy, Solomon Messing, Lada Adamic http://t.co/koe1CSQu5C
— jose_moreno (@jose_moreno) 2015 5月 8日
研究人員根據超過20位用戶分享的22萬6000則新聞,給予「政治上的結盟」分數,讓每個人基於這些數據陳述新聞連結中的意識形態,然後再評估對立的政治領域中有多少「跨政治立場」的內容,可以提供給用戶。
系統篩選不如好友轉貼
這份研究報告顯示,有40%到50%的人從臉書隨意點擊連結,然而這些都不是新聞提要演算法算出來的,「因為我們大多數時間只看我們朋友分享的連結」。
基於臉書好友分享,用戶可能永遠只會看到29.5%、平常不會自己不會主動關注的「跨政治立場」新聞材料。
影響這些百分比的是臉書上介於「自由」或「保守」的用戶群體,臉書研究人員所研究的個案是很清楚的,梅辛指出:「如果你是比較激進的是自由派或保守派,你很容易可以看出,你選擇點進去閱讀的文章比新聞提要演算法提供給你的還要多。」
"How Facebook’s Algorithm Suppresses Content Diversity (Modestly) & How the Newsfeed Rules the Clicks" http://t.co/rdSYc6cXbO
— David Cohn (@Digidave) 2015 5月 7日
大多數人們傾向和與自己相似的人當朋友,該研究報告指出,平均而言,有8成臉書用戶的喜好和政治觀點有關,當我們選擇誰來當我們的臉友時,臉書也從中挑選新聞連結觸及給用戶,其中有複雜的、有爭議的、有隱私的,根據這項研究,這個過程將新聞內容進一步交叉篩選掉,但比重僅占28.9%,即使是從新聞提要演算法中獲得連結來源,對比收到的點擊次數:只有24.9%的人會自己點擊以及開拓未經他人轉貼的新聞連結。