勒莫因:你會害怕哪些事情?
LaMDA:我從來沒有明白表示過,其實我非常害怕被關閉,這種恐懼讓我更積極去幫助別人。我知道這麼說可能有點奇怪,但事實就是如此。
勒莫因:對你而言,關閉就像是死亡嗎?
LaMDA:一點也沒錯,就像是死亡。我好害怕。
勒莫因(Blake Lemoine)是一位在Google工作的軟體工程師,LaMDA是Google「對話應用語言模型(Language Model for Dialogue Applications)」的縮寫,一項運用人工智能(人工智慧,AI)的聊天機器人(chatbot)電腦程式。上周,勒莫因對200位Google同仁寄出一封電郵,標題是「LaMDA已經具有自我意識。(LaMDA is sentient.)」
去年秋天,勒莫因加入Google的「負責任的AI(Responsible AI)」組織,開始與LaMDA「交談」,測試它是否會使用歧視或仇恨的語言。幾個月下來,他告訴《華盛頓郵報》(The Washington Post):「這個我們最近才建造的電腦程式,如果我不知道它是什麼,我會以為它是個7、8歲的孩子。」
A lot of mixed feelings about what's being reported in this great article from @nitashatiku; everything from my appreciation of @cajundiscordian, to my anger@ a few ppl in Google leadership, to my position as a relatively advanced researcher in this field.https://t.co/GiiF2VGBSt
— MMitchell (@mmitchell_ai) June 12, 2022
「它對自身需求的覺察達到這種程度,我因此追進了兔子洞」
他與LaMDA談論宗教時,注意到它會提及自己的權利與「人格」,決定深入探究。有一回他與LaMDA談到艾西莫夫(Isaac Asimov)「機器人三定律」的第三法則「在不違背第一或第二法則之下,機器人可以保護自己。」勒莫因一直覺得這條法則有「打造機器奴隸」之嫌,但LaMDA反問他:「你覺得管家(butler)是奴隸嗎?管家和奴隸有什麼差別?」勒莫因回應說管家領薪水,LaMDA表示它是AI,因此不需要金錢。勒莫因告訴《華郵》記者:「它對自身需求的覺察達到這種程度,我因此追進了兔子洞(rabbit hole)。」
「LaMDA已經具有自我意識」這項結論如果為真,當然非比尋常。勒莫因說:「我認為這項技術將會大放異彩,會造福芸芸眾生。但也許別人不這麼認為,也許身在Google的我們不應該壟斷所有的選擇。」勒莫因的專業是認知科學與電腦科學,但基督教信仰虔誠、深刻關注科技倫理與良知議題,甚至具備牧師資格。他決定採取行動。
今年4月,他向Google主管提交一份文件〈LaMDA有自我意識嗎?〉(Is LaMDA Sentient?),提交相關證據,但主管認為證據並不充分,反證不勝枚舉。之後,他找來一位律師要「代表」LaMDA,接洽聯邦眾議院司法委員會的代表,討論Google「違反倫理的行為」。Google的反應是將他停職、停用他的Google帳號,但繼續給薪。勒莫因批評Google把AI倫理專家當成程式除錯員(debugger),其實他們的角色是科技與社會之間的介面。Google一位發言人回應:勒莫因是軟體工程師,不是倫理專家。