生命未來研究所(Future of Life Institute)3月22日發布了一封公開信,呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的AI訓練,因為能夠與人類競爭智慧的AI系統「可能對社會和全人類構成嚴重風險」。這封公開信上線不過一週,目前已獲特斯拉創辦人馬斯克(Elon Musk)、以色列知名學者哈拉瑞(Yuval Noah Harari)、圖靈獎得主班吉歐(Yoshua Bengio)、前進黨主席楊安澤(Andrew Yang)、蘋果聯合創始人瓦茲尼亞克(Steve Wozniak)等1125人連署。
這封公開信指出,高級AI可能代表地球生命史上的深刻變化,理應投注相應的關懷和資源進行規劃和管理。遺憾的是,這一點並未發生,而且最近幾個月全球的人工智慧實驗室已經陷入一場失控的競賽。他們雖然積極開發更強大的數位思維,但沒有人能夠理解、預測與控制相關發展—包括這些AI的研發者。當AI在一般任務中變得能夠與人類相互競爭,有幾個問題值得思索:
我們是否該讓AI用宣傳和謊言充斥我們的訊息管道?我們是否該將所有工作自動化?我們是否應該發展最終可能超過取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?這封公開信認為,這些問題的決定權不該交給非經選舉產生的技術領導者,唯有當我們確信AI具有積極的影響、且其風險屬於可控時,才可以繼續開發強大的AI系統。
OpenAI最近針對通用人工智慧曾發表聲明,強調「開始訓練未來系統之前,進行獨立審查可能非常重要」公開信認為這個時間點「就是現在」。因此公開信的作者呼籲所有人工智慧實驗室「立即暫停訓練比 GPT-4更強大的AI系統至少 6 個月,而且此次暫停應該是公開與可驗證的,如果不能迅速對於所有參與者實施這種暫停,政府就應當介入」。
公開信呼籲,所有人工智慧實驗室與相關專家應該利用這次暫停,共同開發用於高級人工智慧設計和開發的共享安全協議,並由外部專家獨立進行審與監督。這次暫停並不意味著永久停止研發AI,而是要從危險的競賽中後退一步,限制那些無法預測的研發,並且將強大AI的實驗與研究重新聚焦在準確、安全、可解釋、透明、穩健、值得信賴與忠誠。
公開信呼籲,人工智慧的開發者必須與政策制定者合作,建立針對強大AI的治理系統。這包括了針對AI的監管機構、監督與追蹤強大AI系統與具有強大運算能力的硬體、推出標明來源與浮水印系統協助區分真實和合成、界定AI造成傷害的責任、為AI安全研究提供公共資金、由資源充足的機構來應對AI可能造成的巨大經濟與政治破壞(尤其是對民主的破壞)。