社交媒體Facebook(臉書)宣佈一系列措施移除與恐怖主義有關內容。
各國政府向科技公司施壓,要求它們採取更多行動移除恐怖主義相關的內容。
Facebook領導層近期發表部落格及接受BBC訪問時,都表示Facebook希望更加公開透明,讓公眾知道Facebook如何打擊恐怖主義的內容。
Facebook對BBC說,現時正使用人工智能去辨認與恐怖主義有關的圖片、影片、文字及假賬戶。
「我們希望能在其他人看到之前,立刻找出與恐怖主義有關的內容。」
網路並非 恐怖分子的」「安全空間 」
所謂的」伊斯蘭國「擅用科技招攬成員,引起各界質疑網絡巨擘的現行做法。
有批評指網絡公司的平台被利用傳播極端主義及鼓吹他人使用暴力。
各國政府──尤其是英國政府──近月要求這些公司作出更多行動。歐洲各國都有更多聲音要求以立法或監管手段解決問題。
英國首相梅伊及法國總統馬克宏今周在巴黎開展運動,確保網路不能成為恐怖份子及犯罪者的安全空間。
他們說,其中一項議題是,當公司未能移除一些內容的時候,它們需要承擔法律責任,譬如繳交罰款。
Facebook說它們致力尋找新的方法去找出及移除不當內容,現時它希望外間更了解進行的工作。
Facebook全球公共政策主管比克特(Monika Bickert)對BBC說:」我們需要對我們的社群坦誠布公,我們正在做甚麼去確保,恐怖組織難以在Facebook生存。」
英國國安官員批評指,科技公司依賴他人舉報有關極端主義者的內容,而非主動採取行動。
Facebook早前宣佈將會招聘額外3000人去檢視其他用戶檢舉的內容。
不過,Facebook亦曾表示,過半數被關閉、支持恐怖主義的用戶,是由Facebook自行找出來的。
Facebook說現時已使用新科技去提升行動的水平。
「我們知道我們能使用科技──尤其是人工智能──去做得更好、阻止恐怖主義內容的傳播。」
自動分析
配對影像是Facebook採取的新技術之一。假如有人嘗試上載與恐怖主義有關的相片或影片,系統會將之與已被辨認的內容比較,阻止這些內容上線。
令人工智會了解甚麼文字推廣恐怖主義,是另一個實驗中的範疇。一些讚美或支持如「伊斯蘭國」等的恐怖組織的內容被移除後,人工智慧通過分析去嘗試尋找支持恐怖主義的文字訊號。
演算法會以這些分析為基礎,學習如何辨認類似的內容。機器學習意味著,過程將會越來越進步。
Facebook說現時應用演算法去偵測支持恐怖主義的用戶「群」或影像。