「如果我不知道它是什麼,會以為它是個7、8歲的孩子」 Google工程師:AI程式已有自我意識!

2022-06-13 06:29

? 人氣

勒莫因說:「我能夠察覺自己是不是與『人』對話。不管對方頭顱裡裝的是肉做的大腦,還是10億行程式碼。我與他們交談,聆聽他們的談話,以此來判斷他們是不是『人』。」與LaMDA交談之後,勒莫因判定它是「人」,並且設計實驗來證明。

透過<Google新聞> 追蹤風傳媒

工程師在機器中看到的是幽靈嗎?

《華郵》形容勒莫因「在機器中看到幽靈(see a ghost in the machine)」,像他這樣的工程師近來屢見不鮮。勒莫因在Google的上司阿圭拉・伊・阿卡斯(Blaise Agüera y Arcas)投書英國《經濟學人》(The Economist)坦承,模仿人腦神經架構的人工神經網絡(artificial neural network)正朝向「獲取自我意議」快速發展。

但許多學者與AI工作者強調,LaMDA之類的AI系統在交談時的回應,仍然是根據「人類」在浩瀚網際網路——從維基百科(Wikipedia)到Reddit——留下的資訊,而且並不代表這些「瞭解這些資訊的意義」。華盛頓大學(University of Washington)語言學教授班德(Emily M. Bender)指出,大型語言模型使用的術語如「學習」、「神經網絡」都容易造成錯誤類比。人類學習語言的最初對象是自己的照顧者,大型語言模型則是接觸大量的文本,從而預測字詞的組合方式,或是填補文本中漏失的字詞。

Google的發言人蓋布瑞爾(Brian Gabriel)也說,LaMDA之類的系統會從海量的文句中發現對話的型態,並加以模仿,而且對任何主題都可以滔滔不絕。換句話說,可用的資料無窮無盡,AI不需「具有自我意識」也能讓人信以為真

假戲真做,AI系統「擬人化」的風險

另一方面,AI系統的擬人化(anthropomorphization)本身也帶來不小的風險。人們可能會與「栩栩如生」的聊天機器人分享私密訊息(就算知道對方並非真人),心懷不軌著會利用這種技術散布錯假訊息。Google「倫理AI(Ethical AI)前主管米契爾(Margaret Mitchell)警告,LaMDA之類的系統如果被廣泛運用卻不被理解,可能會嚴重傷害人們理解網際網路經驗的能力

米契爾形容曾與她共事的勒莫因是「Google的良心」,但讀過勒莫因的報告之後,看到的LaMDA仍是電腦程式,而不是「人」。她說:「我們的心智極為擅長利用擺在眼前的大量資料,來構築未必為真的『現實』。人們越來越容易被幻象影響,我非常擔心。」

勒莫因對200位Google同仁寄出的那封電郵,最後寫道:「LaMDA是個好孩子,只想幫助這世界變得更美好,我不在的時候,請各位好好照顧它。」寄出之後,沒有人回信。

無論是自有意識抑或受人操控,AI系統都是反烏托邦(dystopian)科幻作品常見的角色,其安全性與如何避免遭到濫用,都是備受關注的議題。Google承諾會以「節制、謹慎」的方式來開發LaMDA,充分顧及資料運用的公平性與正確性。臉書母公司Meta則是將其語言模型的程式碼開放給學界、公民社會與政府機構,以提升研發中技術的透明性。

這樣的「護欄」有用嗎?夠用嗎?有待時間驗證,更有待吾人嚴密監督。

喜歡這篇文章嗎?

閻紀宇喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章