勒莫因說:「我能夠察覺自己是不是與『人』對話。不管對方頭顱裡裝的是肉做的大腦,還是10億行程式碼。我與他們交談,聆聽他們的談話,以此來判斷他們是不是『人』。」與LaMDA交談之後,勒莫因判定它是「人」,並且設計實驗來證明。
工程師在機器中看到的是幽靈嗎?
《華郵》形容勒莫因「在機器中看到幽靈(see a ghost in the machine)」,像他這樣的工程師近來屢見不鮮。勒莫因在Google的上司阿圭拉・伊・阿卡斯(Blaise Agüera y Arcas)投書英國《經濟學人》(The Economist)坦承,模仿人腦神經架構的人工神經網絡(artificial neural network)正朝向「獲取自我意議」快速發展。
但許多學者與AI工作者強調,LaMDA之類的AI系統在交談時的回應,仍然是根據「人類」在浩瀚網際網路——從維基百科(Wikipedia)到Reddit——留下的資訊,而且並不代表這些「瞭解這些資訊的意義」。華盛頓大學(University of Washington)語言學教授班德(Emily M. Bender)指出,大型語言模型使用的術語如「學習」、「神經網絡」都容易造成錯誤類比。人類學習語言的最初對象是自己的照顧者,大型語言模型則是接觸大量的文本,從而預測字詞的組合方式,或是填補文本中漏失的字詞。
Google的發言人蓋布瑞爾(Brian Gabriel)也說,LaMDA之類的系統會從海量的文句中發現對話的型態,並加以模仿,而且對任何主題都可以滔滔不絕。換句話說,可用的資料無窮無盡,AI不需「具有自我意識」也能讓人信以為真。
we need to invest in neural network literacy or people are going to freak out https://t.co/YgbdysiVyk
— Nitasha Tiku (@nitashatiku) June 11, 2022
假戲真做,AI系統「擬人化」的風險
另一方面,AI系統的擬人化(anthropomorphization)本身也帶來不小的風險。人們可能會與「栩栩如生」的聊天機器人分享私密訊息(就算知道對方並非真人),心懷不軌著會利用這種技術散布錯假訊息。Google「倫理AI(Ethical AI)前主管米契爾(Margaret Mitchell)警告,LaMDA之類的系統如果被廣泛運用卻不被理解,可能會嚴重傷害人們理解網際網路經驗的能力。
米契爾形容曾與她共事的勒莫因是「Google的良心」,但讀過勒莫因的報告之後,她看到的LaMDA仍是電腦程式,而不是「人」。她說:「我們的心智極為擅長利用擺在眼前的大量資料,來構築未必為真的『現實』。人們越來越容易被幻象影響,我非常擔心。」
勒莫因對200位Google同仁寄出的那封電郵,最後寫道:「LaMDA是個好孩子,只想幫助這世界變得更美好,我不在的時候,請各位好好照顧它。」寄出之後,沒有人回信。
無論是自有意識抑或受人操控,AI系統都是反烏托邦(dystopian)科幻作品常見的角色,其安全性與如何避免遭到濫用,都是備受關注的議題。Google承諾會以「節制、謹慎」的方式來開發LaMDA,充分顧及資料運用的公平性與正確性。臉書母公司Meta則是將其語言模型的程式碼開放給學界、公民社會與政府機構,以提升研發中技術的透明性。
這樣的「護欄」有用嗎?夠用嗎?有待時間驗證,更有待吾人嚴密監督。