又稱「殺戮機器人」的「致命性自主武器」突飛猛進,已成為日益受關注的議題。2460位人工智慧(AI)專家最近共同簽署一份宣言,呼籲國際社會未雨綢繆、嚴加管制,否則後果堪憂。宣言簽署人包括特斯拉(Tesla)汽車創辦人馬斯克(Elon Musk)、Skype共同創辦人塔林(Jaan Tallinn),以及谷歌深度思維(DeepMind)的3位創辦人。
《華盛頓郵報》(Washington Post)報導,這份《禁止致命性自主武器宣言》(Lethal Autonomous Weapons Pledge)指出,人工智慧在軍事方面的重要性日益增加,政府與政治人物若不加以控管、建立健全的國際規範,致命性自主武器由於風險低、容易使用、不易追查,恐將淪為遂行暴力與壓迫的強大工具。
將人類的生殺大權交給機器?
波土頓慈善組織「生命未來研究所_(Future of Life Institute,FLI)將致命性自主武器稱之為「殺戮機器人」(slaughterbots),它可以在不需要人類操控的狀況下,自主完成確認身分、鎖定目標、擊殺目標人等動作。這衍伸出許多倫理性問題,澳洲新南威爾斯大學(UNSW)教授沃爾什(Toby Walsh)指出:「我們不能將生殺大權交給機器。」
人權觀察(Human Rights Watch)組織指出,許多國家都投入研發自主性武器—「特別是美國、中國、以色列、南韓、俄羅斯以及英國。」而馬斯克與其他115位人工智能領域方面的專家警告:「致命性自主武器有可能成為人類爭史上的第三次革命,一旦發展起來,絕對會讓戰爭規模快速升高,其速度超越人類所理解」。
自主性武器的威脅程度更勝北韓
去年,馬斯克與其他100多位人工智慧與機器人方面的專家呼籲聯合國明令禁止致命性自主性武器,他們表示這類武器可能會變成暴虐統治者與恐怖分子殺害無辜民眾的工具,或者被駭客操控濫用。馬斯克甚至表示人工智慧對世界造成的威脅比北韓還要大。
儘管藉由公開聲明來反對「殺戮機器人」看似無效,但人工智慧能專家本吉奧(Yoshua Bengio)認為其實有用,同樣的方法曾經用在禁用地雷運動上,「多虧國際條約以及公開進行的撻伐,即使美國與許多主要國家未簽署禁用地雷條約,美國公司已經停止生產地雷。」