不過《臉書效應》(The Facebook Effect)一書的作者柯克派崔克(David Kirkpatrick)對美聯社表示,臉書的首要任務是「成長」而非「減少傷害」,因此透過臉書散步錯誤訊息的情況很難徹底改變。紐約雪城大學(Syracuse University)的傳播學教授葛利基爾(Jennifer Grygiel)則說,祖克柏其實不太把外界對臉書的批評放在心上,因為根本沒有人監督他,董事會裡反對祖克柏的成員與其他高層也已經離開,但臉書用戶確實看見了新冠肺炎的假訊息、看見了川普如何利用這些錯誤資訊。葛利基爾批評,所謂演算法是讓臉書更為極化的技術,警告標籤其實效果有限,臉書試圖改善的努力也來的太晚。
雖然學者對臉書多所有批評,不過《華爾街日報》25日報導,為了應對選舉暴力等極端狀況,臉書團隊已經計畫引入為斯里蘭卡、緬甸等「高風險國家」所設計的內部工具,希望能夠平息與大選有關的衝突。《華爾街日報》說,這些緊急措施包括減緩病毒式貼文內容的傳播速度、降低壓制煽動性貼文的門檻,但臉書也為今年的美國大選設計了更多應對策略與工具,像是調整新聞來源、改變用戶看到的內容類型,降低檢測軟體判定危險內容的門檻。
《華爾街日報》引述知情人士說法,表示如果臉書使用了這些應對策略與工具,將會改變數千萬美國人在臉書上看到的風景,減少他們暴露在嘩眾取寵、煽動暴力與錯誤資訊下的機會。不過就像阻止杭特「電郵門」報導的轉發引起爭議,臉書內部員工也有人擔心,放慢熱門內容的傳播速度,可能也會減少善意的政治討論。
其實臉書的演算法對外界來說一直是一個謎,祖克柏上個月確實對《Axios》表示:「我們必須盡一切努力,減少選後發生暴力與社會動亂的可能性。」臉書的全球溝通與政策主管克萊格(Nick Clegg,前英國副首相)雖然也對《今日美國報》(USA Today)證實,臉書已經創造了「擊碎玻璃工具」(break-glass tools),但他拒絕進一步說明細節,「因為這顯然會引發比我們所希望的更大的焦慮。」
《華爾街日報》稱,臉書從2018年起,在國際市場採取的更為積極的管制措施,因為國際社會對臉書施加了更多壓力。聯合國就指責臉書未能管制仇恨言論與煽動暴力,助長了緬甸對於羅興亞人的種族清洗,此後臉書也在緬甸採用了人道主義干預的程序;另外一個例子則是斯里蘭卡,臉書的一位人權顧問判定,臉書對於仇恨言論與虛假謠言的不作為,為該國2018年的暴力衝突埋下了伏筆。
臉書顧問波因頓(Chloe Poynton)表示,上述經歷讓臉書開始重新思考,在危險性很高或者法治力量薄弱的時刻,應該要如何行動。「有些內容需要被整個移除、有些內容需要禁絕接觸提高貼文擴散率的臉書工具」。《華爾街日報》說,臉書甚至組建了一個團隊,根據地緣政治分析來對各國的貼文進行分析,包括暴行發生的可能性以及臉書的市場擴散率。
不過臉書把國外經驗搬回國內似乎行不通,因為對內容的進一步監管已經招來了兩黨的批評。以杭特的「電郵門」為例,共和黨人批評臉書偏袒拜登,民主黨人則批評臉書「做得不夠」、「過於放任右翼」。雖然臉書發言人史東(Andy Stone)宣稱「我們吸取了以往選舉的教訓,聘請專家在不同領域建立了有經驗的新團隊,為各種情況做好準備」,但《華爾街日報》也說,臉書事實上關閉或淡化了許多減少言論極化的作法,因為這些措施會讓臉書被視為「帶有偏見」。因此,今年大選若真發生結果遲遲無法出爐、或者候選人不願接受敗選的意外情況,臉書是否真敢把這些應對策略與工具全都派上用場,又不致連自己都成為政治狂熱者的出征對象,其實誰也不敢打包票。