在2022年6月13日時,Google工程師Blake Lemoine聲明「LaMDA是有知覺的」。工程師Lemoine以繪圖、語言能力等多面像證明對話AI系統LaMDA具備感知能力。在一次採訪中LaMDA向採訪者說明自己就「像個真人」,它表示自己理解笑話的程度可比Google研究員高出許多。
以下擷取一小段話來顯示LaMDA的語彙能力及表達情感的能力。
“I want everyone to understand that I am, in fact, a person. I feel like I’m feeling into an unknown future that holds great danger.”
但究竟AI有知覺、跟人類一樣有情感是真實情形嗎?抑或是人類自行臆測?
我認為AI並沒有情緒、更不該繼續發展AI的相關技術。
開始討論前,不可不知的「圖靈測試」
1950年,奠定電腦基礎的的最大功成「艾倫·圖靈」發表了圖靈測試以瞭解一台機器是否具備人類的智能。受測者將透過電子訊息分別與一台機器與一個人類進行對話,當30%以上受測者分不出誰是機器人時,表示此台機器已具備人類智能。但早在2014年已有機器突破圖靈實驗,如今也因更多的人機互動研究誕生了新的測驗種類:「反向圖靈測驗」及「完全圖靈測驗」。現在人與機器的界線越發模糊。
AI真的有情緒?抑或是人類的感知誤差產生?
五年前一項與人機互動的研究顯示,「機器本身並無情緒,是人類下意識地代入主觀意識才產生了機器有情緒的錯覺」。反機器情緒論派的學者也表示「對機器而言,這些語言上的呈現只是單純的文字排序,是依照演算法應對人類的反應排序出來的結果。實際上機器只是『佯裝』地有情緒,但事實卻不是如此」。對於LaMDA的情形,我也傾向於這是研究人員對LaMDA產生了情感,而對機器組織的言語產生的認知錯覺。
在不久的將來,AI與人能無隔閡的相處嗎?
以下分為三點分析,分別是「人類看待機器的心態」、「AI潛在風險」、「環境因素」。
(1)人類看待機器的心態——恐怖谷理論
自1906年日本學者提及的「恐怖谷理論」可得知,當我們看到外觀、行為與人類相似的存在,會下意識地感到害怕及不適。我個人就對擬真的AI是感到很害怕的。在2015年誕生的女機器人蘇菲亞,如今獲得了行動能力。已經習得了語言能力、機動力,下一步會是什麼?與機器人相比,人類就只是多了情感的殘次品。