2018年的圖靈獎得主傑佛瑞・辛頓,因為類神經網路與深度學習的貢獻被譽為「AI教父」、甚至是「人工智慧領域半世紀來最有影響力的研究者」。不過他去年辭去Google副總裁一職,不再替其進行AI開發,引發高度關注。辛頓日前接受《日經亞洲》專訪,談及他為何視AI為威脅,甚至大膽預測「AI在20年內有機會比人類更聰明」。
談到需要提防AI之處,辛頓(Geoffrey Hinton)對《日經》表示,當我們設立一個表面看來沒問題的目標,交給AI處理可能得出對使用者很糟糕的解方。舉例來說,如果我們將氣候變遷問題交給人工智慧解決(也就是目標是「停止氣候變遷」),它的第一個解方恐怕是讓全人類消失,因為人類才是造成全球暖化的元兇。因此使用AI時,我們必須非常謹慎地具體說明目標。
辛頓還說,不同的AI之間可能出現競爭,它們需要透過學習大量數據來變得更加聰明,這麼做就需要大量的資料中心和大量的資源。在競爭過程中,AI彼此會相互爭奪資源,獲得更多資源的AI就會做得更好。辛頓認為AI的競爭就彷彿某種生物演化的過程,透過競爭AI的能力有可能大幅超越人類。
許多人可能會問,如果AI對於人類有威脅性,「為什麼不裝一個開關來控制AI的啟動與關閉」?辛頓對此表示,如果AI比我們更聰明,只要它們可以與人類交談,這些AI就能說服負責開關的人,因此讓人關掉AI開關的想法實在不怎麼高明。
AI遠比人類想像更強大
辛頓過去也曾對《紐約客》表示:「AI遠比我們想像的更強大。」因為對人類來說,腦死就等於知識死亡,數位智慧卻不是如此。辛頓表示:「如果一台特定的電腦壞了,那些相同的連結強度可以在另一台電腦上使用。即使所有的電腦都壞了,如果將連接強度儲存在某處,就可以再組裝一台電腦、在上頭執行相同權重的運算。一萬個神經網路可以同時學習一萬種不同的東西,然後分享它們所學到的東西。」這種不朽性和可複製性的結合,凸顯了辛頓的擔憂—「我們應該擔心數位智慧會取代生物智慧」。
辛頓表示人工智慧可能已經和我們一樣優秀,因為他們能夠更好地相互交流知識,人類卻做不到。他認為要阻止人工智慧繼續發展已經來不及,也不太可能去限制人工智慧的意圖與目標,因此AI將無可避免地比人類更聰明。理性上,他了解到AI不可能「原地消失」,但他希望年輕一代的科學家應該思考,是否有機會阻止AI接管人類。
AI變成「脫韁野馬」是辛頓一直以來憂慮的問題,他去年在哥倫比亞廣播公司(CBS)的《六十分鐘》節目表示,AI在快速發展下,「五年內」或可獲得凌駕人類的能力,一旦發生這種情況,人類可能就無法控制AI,他指出:「這些系統可能逃避控制的方式之一是編寫自己的電腦程式來修改自己。」 這種「失控」的AI自我進化的未來,將是人類該認真看待的事。