皇天不負苦心人,他的研究在2006年與圖形處理器(GPU)結合,使得AI的研究與應用產生了驚人的實質成果,原來位居主流的符號系統學派頓時黯然失色。2013年他受谷歌的邀請,擔任「谷歌大腦」(Google Brain)的負責人,並同時任教多倫多大學。反思自己的研究歷程,他告訴我們兩點。第一,從一個長遠的觀點來看,以研究者好奇心為出發點的研究,對學術的發展會更有利,也會更有貢獻,只有研究者對研究主題的執著與狂熱,研究才會有所突破;他一輩子想要了解人腦如何運作,透過AI電腦的研發製作,他才終於對人腦有了大致的了解。第二,加拿大高等研究院對AI研究獨具慧眼,這個機構不趕流行,能容納與支持非主流的研究。
2023年5月,辛頓離開谷歌。他離開的原因,主要是他意識到AI研究的突飛猛進,可能會對人類的生存造成危險,離開谷歌可以讓他較自由地發表他的想法。對他而言,一方面任職谷歌,另一方面卻又對谷歌的研發成果發表負面的評論,在人情事理上並不厚道。
自此之後,他密集地接受訪問和做公開演講。他講話的內容不外是:他和他的學生及研究夥伴如何透過神經網絡的研究促成了AI的成熟、AI之所以能運作的原理原則、及AI當下的突破在哪方面可能對人類造成影響。辛頓知道,照現在的研究進程,在短時間內(也許是五年)AI就會超越過人類的智能。這成就在一方面對人類的福祉會有很大的貢獻(比如說醫療服務、氣候變遷的了解與預測),但在另外一方面,也可能給人類帶來莫大的危機。
根據他的預測,AI的普遍運用除了可能會帶來大量失業,也可能因為假消息(misinformation)和深度偽造(deep fake)對民主社會造成威脅、導致電腦犯罪(cyber crime)的猖獗、增強政府對個人大規模的監控、加大貧富差距、被用來製造致命的殺人武器等等。更可怕的是,在AI超越人類智能之後,以AI的智能及自保傾向,AI電腦極可能會操縱人類,最後會消滅人類,讓人類成為地球演化過程當中的一個階段而已。
辛頓知道,面對AI對人類造成各種正負面的可能影響,各國政府及企業絕不可能停止AI的研發。當下我們能做的,就是加強對AI的安全防備。投資在AI安全性的研究及防備,應占與AI有關經費的一半;加重利用AI犯罪的罰則,也是我們應該作的事。
同樣是AI教父,同樣是有智慧且善良的人,對AI未來發展的看法卻相當不同;一位樂觀進取,另外一位謹慎保守。在臺灣,由於黃仁勳的旋風及臺灣產業因為AI發展而產生的利多,使得一般人(尤其是股民)只注意到AI未來的樂觀面,卻較疏忽AI可能對人類整體造成的重大災難。對照著美國或歐洲國家的政府,我們的政府對AI可能帶來的風險著墨甚少。我們的政府是不是該想辦法把辛頓請來臺灣,讓他親口告訴我們,臺灣在未來AI發展上應該扮演什麼樣的角色,或應該有什麼樣謹慎的思維和做法。由他親身說法,臺灣社會的公民也許可以變得更睿智一些,更了解臺灣在AI發展上可能扮演的角色,也更知道自己面對著什麼樣的危機。
*作者為諄筆群主筆