「AI風險已失控!」馬斯克、哈拉瑞、楊安澤等千名專家,為何呼籲暫停訓練GPT-5?

2023-03-29 17:20

? 人氣

《駭客任務》(The Matrix):虛擬現實世界的具象化(圖 / 取自 IMDB 官網)

《駭客任務》(The Matrix):虛擬現實世界的具象化(圖 / 取自 IMDB 官網)

生命未來研究所(Future of Life Institute)3月22日發布了一封公開信,呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的AI訓練,因為能夠與人類競爭智慧的AI系統「可能對社會和全人類構成嚴重風險」。這封公開信上線不過一週,目前已獲特斯拉創辦人馬斯克(Elon Musk)、以色列知名學者哈拉瑞(Yuval Noah Harari)、圖靈獎得主班吉歐(Yoshua Bengio)、前進黨主席楊安澤(Andrew Yang)、蘋果聯合創始人瓦茲尼亞克(Steve Wozniak)等1125人連署。

這封公開信指出,高級AI可能代表地球生命史上的深刻變化,理應投注相應的關懷和資源進行規劃和管理。遺憾的是,這一點並未發生,而且最近幾個月全球的人工智慧實驗室已經陷入一場失控的競賽。他們雖然積極開發更強大的數位思維,但沒有人能夠理解、預測與控制相關發展—包括這些AI的研發者。當AI在一般任務中變得能夠與人類相互競爭,有幾個問題值得思索:

透過<Google新聞> 追蹤風傳媒

我們是否該讓AI用宣傳和謊言充斥我們的訊息管道?我們是否該將所有工作自動化?我們是否應該發展最終可能超過取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?這封公開信認為,這些問題的決定權不該交給非經選舉產生的技術領導者,唯有當我們確信AI具有積極的影響、且其風險屬於可控時,才可以繼續開發強大的AI系統。

ChatGPT。(美聯社)
ChatGPT。(美聯社)

OpenAI最近針對通用人工智慧曾發表聲明,強調「開始訓練未來系統之前,進行獨立審查可能非常重要」公開信認為這個時間點「就是現在」。因此公開信的作者呼籲所有人工智慧實驗室「立即暫停訓練比 GPT-4更強大的AI系統至少 6 個月,而且此次暫停應該是公開與可驗證的,如果不能迅速對於所有參與者實施這種暫停,政府就應當介入」。

公開信呼籲,所有人工智慧實驗室與相關專家應該利用這次暫停,共同開發用於高級人工智慧設計和開發的共享安全協議,並由外部專家獨立進行審與監督。這次暫停並不意味著永久停止研發AI,而是要從危險的競賽中後退一步,限制那些無法預測的研發,並且將強大AI的實驗與研究重新聚焦在準確、安全、可解釋、透明、穩健、值得信賴與忠誠。

人工智慧軟體AlphaGo與中國棋王柯潔(左)3盤對戰,AlphaGo大獲全勝(AP)
人工智慧軟體AlphaGo與中國棋王柯潔(左)3盤對戰,AlphaGo大獲全勝(AP)

公開信呼籲,人工智慧的開發者必須與政策制定者合作,建立針對強大AI的治理系統。這包括了針對AI的監管機構、監督與追蹤強大AI系統與具有強大運算能力的硬體、推出標明來源與浮水印系統協助區分真實和合成、界定AI造成傷害的責任、為AI安全研究提供公共資金、由資源充足的機構來應對AI可能造成的巨大經濟與政治破壞(尤其是對民主的破壞)。

本篇文章共 1 人贊助,累積贊助金額 $ 45

喜歡這篇文章嗎?

李忠謙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章