前陣子由谷歌(Google)開發的人工智慧程式Alphago擊敗南韓圍棋高手李世乭,引發外界關注,而人工智慧也成為當今熱門議題。跟著這股熱潮,微軟也宣布最新人工智慧對話程式 Tay上市,這款能透過對話學習成長的人工智慧,卻因為網友的各種「訓練」,上線不到一天就緊急下架。
Microsoft is "deeply sorry" for teen chat bot Tay's racist tweets https://t.co/hLgvfKE0hj pic.twitter.com/X8ytcnboUz
— CNN (@CNN) 2016年3月25日
Tay主要是由微軟旗下技術研究 Bing 團隊開發,目標對象鎖定18 歲到 24 歲的年輕人在推特進行聊天實驗,希望在對話中進行相關研究,期望能透過機器學習技術,讓 Tay 能夠在現實生活的人類對話中快速成長,甚至越來越聰明,可以擁有自己的個性,並且很自然的與他人互動。
Here are some of the tweets that got Microsoft's AI Tay in trouble https://t.co/H7R17xeEWv pic.twitter.com/UVRohTNXNN
— Los Angeles Times (@latimes) 2016年3月26日
但理想跟現實總是有差距,Tay 的發展一切都取決於網友的問話方式。推特用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓 Tay 變得較為偏激,Tay 除了不認同納粹大屠殺外,參選這屆美國總統選舉的房地產大亨川普也成了「它」說嘴的材料,讓打造 Tay 的團隊是哭笑不得。
Artificial intelligence robot designed by Microsoft turns evil after picking up bad habits off Twitter. #9News pic.twitter.com/cLLMrwBvh5
— Nine News Australia (@9NewsAUS) 2016年3月25日
學習逐漸走樣、言論到後來更顯偏激,《商業內幕》(Business Insider)擷取了大量的歧視性推文,像是 Tay 就有一則回應指出「小布希總統造成了 911 事件,不過希特勒恐怕會比這隻猴子做得更好。此外美國總統候選人川普,將是我們唯一的希望。」(bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got)。
Microsoft AI @TayandYou confirmed for master race: pic.twitter.com/vu6EgTIY6O
— Spectre ✘ (@SpectreReturns) 2016年3月24日
這等言論一出,讓微軟於24日發布聲明,表示很遺憾在Tay上線後24小時內,發現有少數使用者聯手濫用Tay的溝通學習技巧,誘導Tay發表不當言論。因此決定讓Tay下線以便調整軟體程式。
出現這樣的差錯,打造 Tay 的工程師或許需要付上一半的責任。在開放使用前,應要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題或回答的方式,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗又偏激的人工智慧。