Google employee Meredith Whittaker, who helped lead internal protests, leaves the company https://t.co/ZyG1fBAktv pic.twitter.com/ACZE8UJGup
— The Verge (@verge) 2019年7月16日
受制法律規範 檢視作業綁手綁腳
不過檢視AI技術是否有道德疑慮的程度仍有限,像是依據法院對《電腦欺詐和濫用法》(Computer Fraud and Abuse Act,CFAA)的解釋,破壞網站或網路平台的提供服務屬於犯罪行為,而研究人員在檢視網站AI系統是否具不平等設定時,通常都會導致服務暫停,但此舉可能有機會獲得解決,因為美國公民自由聯盟(ACLU)已對此提出告訴。
代表部分記者和電腦科學專家的ACLU律師班達利(Esha Bhandari)2016年把美國司法部告上法院,控訴CFAA規定違憲,「這是走在最前端的案子......這攸關21世紀執行反歧視檢視的權利」。美國加州大學聖地牙哥分校(UCSD)通訊、科技與性別研究教授伊朗尼(Lilly Irani)直言:「我們不能只有會傷害大眾的系統,且只能不斷對其叫嚷抗議。」
擔憂光說不練 出現「道德洗白」現象
美國密西根大學道德、社會暨電腦中心(ESC)主任桑德維格(Christian Sandvig)則擔心出現「道德洗白」(ethics-washing)現象,即科技產業嘴上說要進行改變,但都只是報告寫得好看,實際上卻沒做多少,「讓一切看起來有轉變,表面上符合『道德』這個詞」。AI現代研究所並非孤軍奮戰,美國史丹佛大學也有相關機構「AI以人為核心研究所」(Institute for Human-Centered Artificial Intelligence)。
美國哈佛大學柏克曼網路社會中心(Berkman Klein Center)也關注AI對治理和道德層面帶來的影響,且該中心今(2019)年與麻省理工學院(MIT)媒體實驗室共同舉辦「大會」(Assembly),聚集政策制定者和科技專家一起研商AI道德方案,像是檢視AI系統設定是否具有偏見,以及對開發監控能力相關的AI研究所造成的風險,能夠負起責任。