這封公開信最後強調,人類確實可以享受AI創造的繁盛未來—在成功創建強大的AI系統後,我們若要享受「AI之夏」帶來的成果與回報,就必須為所有人的利益設計這些系統,也給社會對其適應的機會。人類社會曾經叫停可能對社會造成災難性影響的科技,現在我們對AI也能這麼做。「讓我們享受一個漫長的AI盛夏,而不是毫無準備地進入秋天」。
FLI是什麼來頭?
「生命未來研究所」(Future of Life Institute,簡稱FLI)是位於美國波士頓的研究機構,致力於降低人類面臨的全球災難與生存風險,尤其是AI研發過程所帶來的可能風險。FLI創立於2014年3月,創始人包括麻省理工學院的宇宙學家泰格馬克(Max Tegmark)、Skype聯合創始人塔林(Jaan Tallinn)、DeepMind科學家克拉科夫那(Viktoriya Krakovna)等人,特斯拉創辦人馬斯克(Elon Musk)與物理學家史蒂芬・霍金(Stephen Hawking)則在該研究所擔任顧問。
以《人類大歷史》、《人類大命運》、《21世紀的21堂課》等著作聞名的以色列歷史學者哈拉瑞,這次也參與了生命未來研究所的「叫停AI實驗」公開信連署。雖然這封公開信的連署網站只能留下姓名、無法留下任何意見,不過哈拉瑞24日在《紐約時報》的社論版對頁(Op-Ed)撰寫特稿〈你可以吃藍色藥丸或紅色藥丸,但我們沒有藍色藥丸了〉(You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills)裡,確實表達了對人工智慧的憂心。
在這篇哈拉瑞與另外兩名科技公司創辦人(Tristan Harris與Aza Raskin)合寫的文章中,三位作者引述2022年針對700多位AI研發人員與頂尖學者的問卷調查結果,有超過半數的受訪者認為,AI導致人類滅絕(或者導致類似嚴重性的事件)的可能性超過10%。文章開頭作者們使用了一個更為形象的提問:如果你登上一架飛機,製造飛機的工程師有半數認為,該架飛機有10%的機率墜毀,機上的所有人將因此罹難—你還會登機嗎?
哈拉瑞與另外兩位作者認為,當前研發聊天機器人的AI公司,相當於已經讓全人類登上了那架可能有問題的飛機。既然製藥公司應該先確保藥品安全才能對市場銷售新藥,GPT-4甚至功能更強的AI系統就不應該貪快,在確保人類社會能夠與其安全共處的情況下,就與數十億人的生活深度關聯。人類目前仍難以掌握GPT-4與類似AI系統的新能力,更不用說這些新工具正以指數級的驚人速度持續進化。