人工智慧(AI)可以從大量的數據資料中去模仿人類行為,今年的Google開發者大會上,我們看到Google Assistant新增的「Duplex」技術,除了可以代替人類打電話訂位,更能在面對突發狀況時,代替人類做決定,引發許多道德上的討論。
我們常說有問題的不是演算法,而是餵養給演算法的訓練資料,最近在麻省理工學院媒體實驗室(The MIT Media Lab)的一項研究中,研究人員用大量不安的素材訓練一個叫「諾曼(Norman)」的人工智慧,成功訓練出帶有偏見的模型,誕生了第一個如同患有神經病的AI。
餵養大量不安資料,影響AI行為
最近Google因為與美國國防部簽約,試圖將AI科技用於軍事用途引發爭議,雖然本周Google已宣布明年三月合約期滿後,將不再與國防部續約,爭議問題暫時畫下休止符,但卻也讓大眾重新思考AI應用的善與惡。
麻省理工學院媒體實驗室(The MIT Media Lab)最近就做了一項實驗,他們創造出一個叫「諾曼(Norman)」的人工智慧,這個名字取自於有「懸疑電影大師」之稱的亞佛烈德·希區考克,一部著名電影《驚魂記》中的角色諾曼·貝茨( Norman Bates),諾曼是一個圖像、文本描述的深度學習方法,白話來說,是當諾曼看到一張圖片後,就會自動產生一段文字,來描述他認為在圖片中看到了甚麼。
研究團隊利用論壇Reddit上充滿死亡、屍體等不安內容的子論壇(subreddit)相關數據,來餵養給諾曼,接著進行了由瑞士精神醫生赫曼·羅夏克(Hermann Rorschach),所編製的墨跡測驗(Rorschach Inkblots)。
墨跡測驗是一項人格測驗,測驗由10張有墨漬的卡片組成,其中5張是白底黑墨水、2張是白底及黑色或紅色的墨水,另外3張則是彩色墨漬卡片,受試者要回答他們最初認為卡片看起來像什麼,以及後來覺得像什麼,心理學家會根據答案及統計數據判斷受試者的性格,研究結果顯示,研究團隊訓練出了「全世界第一個精神變態人工智慧(World's first psychopath AI)」。
以下,是研究團隊進行墨跡測驗(Rorschach Inkblots)的部分結果,分別描述一般正常AI看到圖片的描述,以及諾曼再接受不安內容訓練後,所回答的結果。
帶有偏見的AI,容易操弄社會輿論
值得一提的是,這支參與麻省理工學院媒體實驗室(The MIT Media Lab)研究的團隊,去年萬聖節曾經做出,會寫鬼故事的AI「雪萊(Shelley)」,Shelley 每個小時會在自己的Twitter帳號上發布一則自創的短文,只要看到Shelley在文末放上「 #yourturn(換你)」的hashtag,就表示Shelley正在邀請網友一起續寫幫助故事延伸,Shelley已經具備將同樣的素材,改寫成兩種不同版本的能力。
而從這次諾曼的AI實驗中可以發現,用帶有偏見的資料,就能訓練出帶有偏見的AI模型,如果加以操弄,就可能在特定的議題上成功帶風向,像是性別歧視、種族歧視、 廢死、LGBT議題等,都有可能因為演算法的偏見,加速傳播或放大某些議題的極端立場或偏見。
麻省理工助理教授Iyad Rahwan就表示:「諾曼反映出非常黑暗的事實,說明人工智慧可以學習這個世界中的恐怖現實。」演算法本身並沒有錯,有問題的是帶有偏差的訓練資料,有偏見的資料會產生有偏見的AI,甚至預測出來的結果也會是帶有偏見的,而資料、AI之間的微妙關係,許多AI專家就以「Garbage in, Garbage out(垃圾進,垃圾出)」來形容,概念就像我們常說的,你跟怎樣的人當朋友,就會被影響成為一個怎樣的人。
文/高敬原
本文、圖授權轉載自數位時代(原標題:人類夢魘的開始,MIT 訓練出宛如精神變態的 AI)
責任編輯/趙元