在當前人工智慧(AI)快速發展的時代,對其進行適當的監管與規範,已成為全球討論的焦點。美國加州州長紐森最近否決了一項規範AI產業的法案,這不僅讓矽谷震動,也引發了美國各州對於如何填補聯邦立法空白的討論。
紐森否決的SB 1047法案,原本被視為全國最嚴格的AI監管法律之一。這項法案要求科技公司對AI模型造成的損害承擔法律責任,並設置「終止開關」(kill switch)以防止AI被濫用或失控。支持者認為該法案是AI產業責任制的必要一步,對於防範可能的危險很重要。但州長認為,法案過於針對大型AI模型,忽視了小型創新公司也可能帶來的潛在風險。這顯示了監管與創新之間的微妙平衡,如何在保護公共安全的同時,不扼殺科技創新的動力。
美國的AI監管正逐漸從聯邦層面轉向各州主導,例如科羅拉多州通過了一項針對高風險AI系統的法律,要求對影響消費者的重要決策進行風險評估和保護措施。這類法律借鑑了歐盟AI法案的框架,強調針對AI系統可能產生的演算法歧視風險採取預防措施。猶他州通過的法案則要求在AI與人類互動時必須清楚披露這一事實,強調消費者知情的權利。
美國AI監管立法現象與之前的數據隱私立法有相似之處,在歐盟推動《通用數據保護條例》(GDPR)後,美國缺乏全國性的隱私法,各州不得不自行立法。如今AI監管也在經歷類似的發展過程,很多州已開始借鑑歐盟的做法,逐步推出AI監管法規,力圖在聯邦立法缺位的情況下,保護其公民不受AI技術的潛在危害。
這樣的各州獨自立法可能會帶來麻煩,紐森否決SB 1047的理由之一是擔心這類過度嚴格的法案會抑制AI創新,導致矽谷的技術人才和資本流失。這反映了科技產業普遍存在的擔憂,即過早或過度的監管可能會讓美國在全球AI競賽中失去競爭優勢。相比之下,歐盟的AI監管框架已經開始實施,其風險導向的監管模式不僅為技術發展提供了一定的空間,也對科技公司提出了明確的責任要求。
AI技術的潛在風險不可忽視,許多科技領袖,如Elon Musk(特斯拉創辦人)、Geoffrey Hinton(AI教父)等,都支持對AI技術進行更嚴格的監管。他們認為,當前一些最強大的AI模型可能引發嚴重風險,例如擴散生物武器的能力或對關鍵基礎設施發動網路攻擊。因此他們主張應對這些技術進行安全測試,並實施合理的防護措施,確保AI技術在不危及公共安全的前提下繼續創新發展。
美國國會在AI監管方面的遲滯也進一步凸顯了各州立法的必要性,儘管聯邦政府提出了一些與AI相關的行政命令和政策倡議,但這些措施缺乏立法的強制力。這種局面讓各州在應對AI風險時必須自主行動,從而加劇了美國各州之間AI監管政策的差異。
至於台灣如何有效監管AI,確保技術發展與公共安全並重,這仍然是一個待解的難題。儘管國科會已經提出「AI基本法」的草案,但內容是否足夠,何時可以通過,都仍在未定之天,但鑒於AI技術可能引發的深遠影響,制定合理的監管措施已成為不可迴避的挑戰。
*作者為台北商業大學前校長/全球品牌創新永續協會理事長