AI也有意識?
辛頓認為人工智慧幾乎已經和人類一樣、擁有主觀經驗,而大部分的人對於思考模型的理解都是錯的。辛頓舉例說明:假設我喝了很多酒,隔天早上醒來因為幻覺而「看見」粉紅色的小象。一般人在這種情況下並不會相信小象真實存在,而是會認為自己的感官系統出了問題,因此這屬於主觀的內在經驗。
現在假設我有一個經過訓練、理解語言的多模態聊天機器人,它有一個相機和手臂,因此它可以指向物體。我在相機前面放置一個稜鏡而且沒有讓機器人知道,然後擺放一個物體在它面前。由於稜鏡會造成光線彎曲,因此產生物體在遠處的錯覺,導致機器人無法確實指向物體擺放的位置(就在它面前)。在得知稜鏡的存在後,機器人可能會說「原來物體實際上就在我的正前方,但我的主觀經驗告訴我『物體在遠處』。辛頓認為,AI對「主觀經驗」這個詞的用法就跟人類一模一樣。此外,辛頓也對《日經》強調,很多人認為意識、知覺、主觀經驗是人類特有的,AI並不具備理解世界的能力,這些想法在辛頓看來都是錯誤的想法。
「AI和核武一樣危險」
辛頓對《日經》表示,他相信未來十年極可能出現自主而致命的糟糕武器,這當然需要受到類似對於化學武器的監管。如今化武的使用情況遠不如上個世紀一次大戰時廣泛,辛頓認為就是相關的國際協議發揮作用。辛頓希望人類社會能夠早日為AI戰鬥機器人達成類似協議,但他也悲觀認為,恐怕要在AI戰鬥機器人實際派上用場之後,國際社會才會出手監管。
雖然如此,不過辛頓又樂觀地認為所有國家都不希望讓AI接管這個世界,因此所有國家應該都願意分享研究成果,針對防止人工智慧取代人類的政策達成共識。如同冷戰年代,美蘇兩國都願意採取措施來防止核戰爆發,因為核戰爭顯然對於雙方都極為不利。當年美蘇想要阻止核戰,他們也確實做到了。
ChatGPT能理解人類語言?
辛頓對這個問題的回答是:「是的,我認為它確實明白。」
早在1985年,辛頓就使用神經網路做出第一個語言模型,這是以人類大腦如何理解為基礎所設計的模型。辛頓坦言,大多數聲稱AI不懂語言的人,並不真的清楚人類如何理解語言。不過辛頓以AI能否聽懂笑話,來作為AI是否理解事物的標準。
辛頓在2022年為Google開發了PaLM聊天機器人,辛頓說,這個機器人可以理解笑話為何有趣,並解釋笑點何在。辛頓也曾向《紐約客》分享互動式AI確實能理解人類語言,因為有次他請ChatGPT解釋「福斯新聞是個『oxy』白痴。(Fox News is an oxy moron.)」是什麼意思,系統回應他,他的語句暗示福斯新聞是假新聞。當辛頓進一步請ChatGPT解釋為什麼要在「oxy」和「moron」之間加空格,(oxy只是oxymoron的字首、moron則為白痴之意;oxymoron意為「矛盾語」),系統解釋道:「福斯新聞會讓人上癮,就像藥物奧施康定(OxyContin,處方類鴉片止痛藥,成分與海洛因相近)一樣。」辛頓以此為例,AI理解語言的程度讓他十分驚訝。
AI是否改變我們對人類的理解?
辛頓認為,透過建立這些神經網路,我們已經發現了許多關於大腦如何運作的資訊。舉例而言,過去一些哲學家和語言學家認為「語言無法學習」,因為語言必須是進化的與天生的,辛頓指出,事實證明這完全是無稽之談。
過去半世紀,辛頓堅信神經網路只要更像人腦,就會有更好的表現,因為大腦比神經網路工作得更好,因此他致力於開發神經網路試圖讓它們更像人類大腦。但辛頓表示,在2023年初他有截然不同的見解。辛頓認為,人類分享知識需要很長的時間,我們無法逃脫死亡,然而,在數字的世界,一切內容都簡化為「0」和「1」加以記錄,知識變得不依賴特定的硬體,可以瞬間複製數據並進行完全相同的程序。現在的大型語言模型以人腦百分之一的規模,儲存比人類多數千倍的知識,這表示AI能夠更有效率的學習演算法。