• 最新快訊
20171031-SMG0035-快訊小紅條兒

張瑞雄觀點:不能讓AI控制核武

2024-11-26 07:00

? 人氣

美國總統拜登與中國國家主席習近平在APEC峰會上同意核武器使用決策應由人類掌控,而非交由AI處理。(美聯社)

美國總統拜登與中國國家主席習近平在APEC峰會上同意核武器使用決策應由人類掌控,而非交由AI處理。(美聯社)

人工智慧(AI)技術在短短數十年間,以驚人的速度進步,影響著我們生活的各方面。無論是醫療、教育,還是國防與安全,AI的應用無所不在。但隨著技術的快速擴展,其潛在風險和不當使用的問題也逐漸顯現。最近Meta開放的Llama模型被中國軍方用於開發軍事分析工具,Meta也允許美國國防部使用其模型於軍事用途,顯示了AI技術的潛在威脅和風險。

透過<Google新聞> 追蹤風傳媒

美國總統拜登與中國國家主席習近平近日在APEC的會議上一致同意,核武器的使用決策應始終由人類掌控,而非交由AI處理​。這一聲明不僅是對技術濫用風險的警示,也反映了大國在處理AI技術軍事化風險時的責任心。但儘管美中在此議題上達成了初步共識,相關的實質性行動仍遙遙無期。這反映出國際社會對於AI應用的規範和管理,仍處於探索階段。

在高風險決策(例如核武器使用)中,人類的道德價值和判斷力非常重要。AI雖然能提供精確的數據分析,但其冷冰冰的演算法無法考量道德複雜性。因此在AI快速發展的當下,保持人類在關鍵決策中的核心地位,是防止技術濫用的關鍵一環。

另一方面,民用AI技術的濫用問題同樣令人擔憂。例如研究人員曾成功將一款原用於毒性檢測的AI模型,轉為生成化學武器設計的工具​。因此即便是最初為善意目的設計的技術,也可能被惡意利用。

儘管全球已有超過150「負責任AI」倡議的類似計劃,但大多數關注的應用領域在教育、醫療等,卻忽略了國際和平與安全層面的風險。AI若要真正實現負責任的使用,必須將安全問題納入核心討論,並主動思考其研究成果可能產生的負面影響。

AI技術還面臨對抗性攻擊的威脅,尤其是在軍事與國防領域。例如簡單的圖像改動或物理標記就可能欺騙AI系統,導致其作出錯誤判斷。這些漏洞可能被敵對勢力利用,影響AI系統的穩定性,甚至造成嚴重後果。

解決這一問題的一個方法是「保持人類在迴路中」,但隨著AI在情資收集與分析中的應用越來越廣泛,實現這一原則的難度也越來越大。在許多情況下,AI的運作速度和處理規模遠超人類所能,使得完全依賴人工監管成為不可能。

因此我們需要更有效的技術措施,如加強AI的可解釋能力,以及建立多層防禦機制。同時國際社會應制定更完善的規範,以減少對抗性攻擊可能帶來的風險。

從上述說明中,我們可以看出AI技術的應用充滿了風險。如何平衡創新與風險,是技術發展的核心議題之一。以下是幾點建議:

一、加強國際合作與規範制定:AI技術的發展具有全球性,任何一個國家或企業都無法單獨應對其帶來的風險。國際社會應加強在AI規範方面的合作,特別是在軍事應用與技術濫用方面。

二、推動技術透明化與安全性:無論是企業還是研究機構,都應在技術開發過程中考量其可能的負面影響,並採取措施減少濫用風險,例如限制敏感技術的公開程度。

三、強化教育與意識提升:AI從業者和使用者需要認識到技術的雙面性,並了解其可能帶來的安全威脅。教育是提高整體技術倫理水準的必要手段。

四、保持人類的核心地位:在高風險領域,例如核武決策或軍事行動,應始終保持人類對技術的控制,避免完全依賴AI的決策。

AI技術的進步伴隨著極大風險,只有透過全球合作與負責任的技術應用,才能確保AI真正為人類社會帶來長久的福祉與安全。

*作者為台北商業大學前校長、叡揚資訊顧問

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章