臉書內部刪文規則曝光 平均10秒決定遭檢舉貼文去留

2017-05-22 19:40

? 人氣

兩個步驟,簡單舉報假新聞。(取自臉書Newsroom)

兩個步驟,簡單舉報假新聞。(取自臉書Newsroom)

英國《衛報》21日獨家報導,世界最大社群網站臉書公司的內部文件外流,揭露臉書如何教育員工管理平台上的仇恨言論、恐怖主義、情色內容和自殘等議題,由於包括殘忍、暴力、色情、恐怖主義等問題貼文太多,管理者通常只有10秒鐘決定被檢舉的內容去留。

透過<Google新聞> 追蹤風傳媒

《衛報》(Guardian)報導,臉書每週要審核超過650萬個可能來自假帳號的檢舉貼文,而且種類五花八門,根據流出文件,臉書至少提出超過100種圖文類型的管理準則,包括暴力圖文、恐怖主義圖文、色情影像,詳細到「打假球」和「吃人肉」都包含在內。。

其中「復仇式色情影像」(revenge porn)等新挑戰,讓通常只有10秒鐘決定內容去留的臉書管理員疲於應付。復仇式色情影像是指民眾在沒有取得同意情況下,在網路張貼分手情人的裸體影像。

《衛報》舉出多項例子,解釋臉書的刪文政策:

  • 追蹤者超過10萬的粉專會被定義為「公眾人物」,享有的隱私程度比一般人低。
  • 含暴力內容不會全部刪除,除非臉書認為已對特定人物構成可能的實質威脅,例如:「誰來一槍崩了川普」需要刪除,但「狠狠揍那個婊子」不用。
  • 不會阻止使用者直播自殘影片,因為臉書「不想審查或懲罰陷入困境的人」。
  • 暴力致死的影片臉書會標記為「令人不安」,但不一定會刪除,因為這些影片有助於引發他人對精神疾病的關注。
  • 非性虐待或霸凌孩童的照片不會被刪除或標記,除非含有「施虐」或「慶祝霸凌」等元素。
  • 虐待動物的照片不會被刪除,只有極端殘忍的照片會被標記為「令人不安」。
臉書創辦人祖克柏(Mark Zuckerberg)(AP)
臉書創辦人祖克柏(Mark Zuckerberg)(AP)

臉書向《衛報》證實,會利用軟體攔截問題內容,避免這些內容上去平台,但臉書也說,有些全球性事件值得人們討論、關注,並不是所有暴力影片都該下架,需要依個案情形判斷。

臉書也承認,人們使用網路時常常會用暴力言論表達不滿,是因為人們透過網路溝通會比較缺乏同理心,而且網路的距離感讓使用者相信,肆意張貼暴力言論也不會出事。

《衛報》」指出,臉書內容管理人員最關注的是部分守則的標準前後不一。臉書全球政策管理部負責人貝克特(Monica Bickert)曾在聲明中表示:「維持網友安全是我們最重要的工作。我們努力盡可能保持臉書的安全,同時也確保言論自由。」

匿名內部人員說:「臉書沒有辦法完全管控所有內容,實在太多了,增加速度也太快了。」

《路透》指出,他們無法獨立查證這篇文件的真實性。

喜歡這篇文章嗎?

國際中心喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章