殺手機器人的潛在威脅:《情感運算革命》選摘(3)

2018-01-19 05:10

? 人氣

情緒的相似物有可能是未來我們接受自主殺戮機器的關鍵嗎?有可能,只是若有可能,但願不會太久。對於自己沒有真正控制權的殺戮決定,指揮官是不會願意負責的。就算人工情緒智慧可能十分逼真,但是它的反應與思考過程能有多「人性」,這種不確定性在人工智慧達到人類水準後仍將久久不去。另一方面,可能還要數十年,機器才能達到近乎逼真、即時的同理心。

透過<Google新聞> 追蹤風傳媒

欠缺同理心的自主殺戮機器夢魘

自主武器系統的目的是要獨立於人類操作者之外。這種自主可能只出現幾秒或幾分鐘,但是也可能長達數個月或數年。理論上,可能在衝突結束許久後仍在運轉。美國國防部將自主武器系統定義為「一種武器系統,一旦啟動,可以選擇並鎖定目標,不受人類操作者進一步的干預」。如果你認為不會有人故意發射長期自主武器系統,請記住,全球估計還有一億一千萬顆具有殺傷性的地雷埋在地底。雖然就定義而言,這些殺戮機器並非真的自主,但是確實缺乏同理心,也沒有能力關心殺戮對象。它們可以持續運作數十年,在確定停火之後很久仍會造成死傷。將這個意象延伸到可以追捕、挑選並攻擊曾為敵人,但是現在可能已經握手言和的人,就真的是要設法解決的惡夢了。

二○一五年,宇宙學家馬克斯‧泰格馬克(Max Tegmark)在國際人工智慧聯合會議(Inter-national Joint Conference on Artificial Intelligence)上發表一封公開信,呼籲全世界禁止自主武器,而這封信已經有來自全世界超過兩千五百名人工智慧與機器人學研究人員簽署。由於挑選攻擊目標及追蹤的能力是由人工智慧驅動,其智慧在接下來幾年也將持續改良,這些科學家擔心軍備競賽將會導致大規模毀滅性武器變得平價且容易取得。儘管有些國家或許會選擇不用,但是這些武器勢必會在黑市出現,對恐怖分子和獨裁者極具誘惑。

正如公開信的作者所言:「自主武器最適合諸如暗殺、顛覆國家、鎮壓群眾,以及選擇性殺害特定族裔等任務。」公開信的作者在後續的一篇文章中指出,仰賴在這些武器的程式裡設定道德功能,是假定這樣會符合所有人的利益,但是顯然即使有國際法反制,這種功能也會被敵手關閉。

結合情緒和同理心的機器人與人工智慧,情況大概也會一樣。有鑑於幾乎所有裝置或系統都能被駭客攻擊和進行逆向工程,我們應該預料得到,至少會有部分人類參與者涉及其中的最壞情況。

雖然有些人或許認為,為無人飛機和機器人注入情緒覺察可以降低平民傷亡,或是避免在戰鬥中遭到濫用,但是許多時候具備情緒的自主武器說不定一樣糟糕。一個具有先進的情緒智慧,外表還像是親戚、朋友,甚至母親或小孩的人形機器人,輕易就能滲透到安全地帶,並且奪走無數生命。菲利普‧狄克(Philip K. Dick)於一九五三年的經典短篇科幻小說《第二終結者》(Second Variety)中,末日反烏托邦的居民面對的就是一個充斥著自我複製殺手機器人的世界。這些機器有的演化到與人類真假難辨,就是為了用來進行滲透和殺戮。正如同狄克的許多故事,隨著時間經過,這個故事似乎變得愈來愈有可能成真。不用多說,這應該不是我們想要的未來。

《情感運算革命》立體書封。(商周出版提供)
《情感運算革命》立體書封。(商周出版提供)

*作者為未來學家、作家暨演講者,專精於發展中的趨勢與科技,為多家報章雜誌和網站撰寫文章和封面故事。本文選自作者著作《情感運算革命》(商周出版)。本系列結束。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章