網路巨頭谷歌公司(Google)近日表示,正在全力辨別、刪除與恐怖主義和暴力極端主義相關的影片,特別是其子公司YouTube平臺上的有關內容。
「儘管我們多年來一直在辨識和刪除平臺上違反我們政策的內容,但令人不安的事實是,我們必須承認現在還有許多工作要趕上。」
Google表示,公司使用程式資源來辨識包含極端主義資訊的影片,例如正在使用的「影片分析模型」,已經成功在過去半年內辨識出並刪除50%以上與恐怖主義相關的內容。
「我們現在將投入更多的工程科技資源,應用於最先進的機器學習研究,不斷更新『內容分類器』,以求更快辨別、刪除與恐怖主義相關的內容。」
該公司承認,技術無法完全解決問題,因此YouTube 的Trusted Flagger項目增加了50個專業的非盈利性組織。該公司表示,此舉可以更容易辨識暴力宣傳與新聞,而且精確度超過90%。 Google表示已經已與63個組織展開了合作。
Google表示,對於明顯不符合YouTube策略的影片也將採取「更強硬的態度」。對「含有煽動性的宗教行為或白人至上主義內容」的影片予以警告。將不會利用他們盈利,不允許用戶進行評論或點讚、認同。
「這意味著這些影片的關注率會比較低,且難以找到。我們認為,這在不推廣極端攻擊性觀點的同時,自由言論和資訊獲取之間也獲取了平衡。」
Google表示將通過「跳轉方法」來擴大反恐政策的影響力。Google在提及恐怖組織「伊斯蘭國」(IS)時寫道:「這種方法利用特定線上廣告來吸引潛在的IS仰慕者,讓他跳轉到反恐影片,從而改變他們加入恐怖組織的想法。 「之前就已部署的這個系統中,系統判斷出的潛在仰慕者都迅速點擊了廣告,他們也觀看了揭穿恐怖組織友好面具的影片,總共超過五十萬分鐘。」
這些措施最先發佈在《金融時報》(Financial Times)網站的社論上,同時也可以在Google部落格上找到。
Google的措施發佈前,社交媒體巨頭Facebook也宣佈,他們正在使用人工智慧來打擊恐怖組織相關內容。
今年年初,非營利性組織「南方貧困法律中心」發佈了一份批判包括Google和Facebook等公司的報告。這間反仇恨組織表示,這些公司「沒有採取行動打擊網路上仇恨、假消息等內容,不論是指責各種少數民族對美國的陰謀計劃,還是否認猶太大屠殺存在、反對傳播伊斯蘭教,反女性、反墨西哥人、反LGBTQ族群等等。」