為了提升維安、執法效率,許多政府、企業都希望借助人臉辨識幫忙,不過人臉辨識一但出包,恐將影響人身安全與自由,美國民權聯盟(ACLU)最近做了一項測試,將國會議員照片與資料庫內的嫌犯照片進行比對,結果亞馬遜的人臉辨識軟體Rekognition,竟然將28名議員誤認為嫌犯,外界呼籲在執法中導入人臉辨識技術,必須要有更嚴謹的討論。
28名議員遭亞馬遜系統誤認為嫌犯
為了測試系統的準確性,美國民權聯盟(ACLU)將535名國會議員的臉部資料,透過亞馬遜的辨識軟體Rekognition,與資料庫中 25,000 名嫌犯的臉部資料進行比對,結果顯示有 28個國會成員都是疑犯。
ACLU認為,如果將這套系統用於執法,恐將有侵害生命跟安全的疑慮,「根據測試結果,我們發現這項技術若讓政府使用並不安全,人臉辨識將加深歧視,特別是針對有色人種、移民和社運人士,一旦放行傷害將難以回復。」ACLU表示:「國會必須將這些威脅嚴肅看待,對這項技術踩煞車,並暫停在執法中使用人臉識別。」
亞馬遜則回應,之所有會有這麼不精準的結果,是因為Rekognition系統的默認設定準確度只有80%,如果要用在執法,必須將準確度調整到95%,「我們認為,以最理想的方式設定準確度,結果就會有所不同。」
亞馬遜強調,80%的預設值是可接受的範圍,用在辨識動物、椅子或是一般社群媒體用途都沒問題,「對用來辨識一個人的身分就不恰當,特別是在執法過程中使用時,我們建議客戶把信任度調整為95%或更高。」
AI演算法偏見,導入執法時應更謹慎
人臉辨識軟體Rekognition,是基於亞馬遜的AWS圖像識別和分析平台,可以提供物體、場景、人臉辨識與分析,主打可以在機場、車站等人潮擁擠的公眾場所準確地監控,最近正積極向政府以及執法部門推銷。
不過許多不同的意見認為,此舉將侵犯隱私與個人自由,今年六月,亞馬遜有100多名員工,寫一封公開信要求執行長貝佐斯(Jeff Bezos),停止向執法機構出售可能有違憲疑慮的Rekognition軟體。
人臉辨識系統還有一個很大的爭議,就是演算法偏見,因為系統一開始使用大量的白人男性資料作為學習基礎,因此一直以來有色人種以及女性遭到系統誤認的比例極高。在這次ACLU的測試中,比對結果出錯的28位議員中,11人是有色人種,約占整體39%,過去ACLU也曾發信給貝佐斯強烈表達人臉辨識系統偏見的疑慮。
這個月初,微軟總裁史密斯(Brad Smith)就公開表示:「有鑑於臉部辨識技術廣泛的社會影響與可能的濫用,追求周全的政府規範就很重要。」他提議國會應該要召集一個跨黨派的專家委員會,討論臉部辨識在執法與國安上的應用限制,避免出現執法上的偏見,科技公司也應該對臉部辨識的合約更加謹慎,如果發現有侵害人權的使用,應該適時拒絕客戶,「臉部辨識科技,對於隱私保護、自由都構成了影響。」
這次的測驗凸顯了人臉辨識技術在應用上的一大缺陷,ACLU律師也公開呼籲:「對於要不要在維安監控上導入人臉辨識,以及要如何應用這項技術,大家應該要進行全方位的辯論。」
文/高敬原
本文、圖授權轉載自數位時代(原標題:大出包!亞馬遜人臉辨識軟體把議員認成嫌犯)
責任編輯/趙元