ChatGPT問世後,使用大型語言模型(LLM)來模仿人類對話的生成式AI蔚為風潮,該如何運用LLM在各種領域協同工作,成為AI最時興的話題,軍事層面的應用自然也不例外。29日,兩名史丹佛大學的軍事和AI安全專家在《外交事務》撰文指出,美國國防部正積極測試LLM的應用。專家們表示,LLM可能很有用,但若只盲目依賴LLM執行兵棋推演和決策制定,恐怕會引發核戰。
史丹佛大學國際安全與合作中心(CISAC)及人工智慧安全中心的研究員藍帕斯(Max Lamparth),與胡佛兵棋推演和危機模擬計畫主任施奈德(Jacquelyn Schneider)指出,即便是受過訓練的大型語言模型(LLM),在執行高風險決策判斷時依舊不可靠,我們也永遠無法確定LLM在軍事領域所做的判斷是安全且道德的。
藍帕絲和施奈德指出,包括非營利組織全球法律行動網路(Global Legal Action Network)、紅十字國際委員會等,都曾警告生成式AI可能對人類帶來的威脅,包括人工智慧可能會以更具歧視性和非道德的方式使用武力,以及在涉及生死問題的決策判斷中,人類的決策恐怕遭到AI排除。
2022年春季,美國國防部成立了首席數位和人工智慧辦公室(Chief Digital and Artificial Intelligence Office),旨在探索人工智慧可以如何幫助軍隊。2023年11月,美國國防部發佈了採用AI技術的戰略,並樂觀地指出:從董事會到戰場,數據、分析和人工智慧的發展將使領導人可以更快地做出更好的決策。而美國國防部也的確正在使用AI於軍事活動中,例如,美軍利用AI技術鎖定中東地區的胡塞武裝目標。此外,美國國防部近期也成立新的工作小組,探索生成式人工智慧,包括大型語言模型,在美軍中的應用。
藍帕絲和施奈德指出,儘管五角大廈內對人工智慧和大型語言模型充滿熱情,但其領導層仍擔心這些技術具有潛在的風險。在由首席數位和人工智慧辦公室贊助的程式設計活動中,已經發現大型語言模型在應用時可能產生偏見與幻覺。近日,美國海軍發布大型語言模型使用限制的指南,為了避免出現安全漏洞和敏感資訊的外洩,根據藍帕斯和施奈德的研究,這些擔憂不無道理。