隨著人工智慧(AI)技術在企業和消費者中的普及,AI對人類的潛在風險也引起了廣泛的討論。歐洲議會於13日通過了全球首套全面的《人工智慧法案》(AI Act),這標誌著監管AI技術邁出了重要的一步。該法案將根據風險程度來管理歐盟市場上的AI產品,確保科技公司推出遵守法律規範的AI產品。
《AI法》的所有條文將在未來三年內逐步生效。最高風險的AI應用方式將於今年晚些時候開始被禁用,包括禁止在學校和工作場所使用情緒識別人工智慧系統,以及禁止擷取人臉圖像以建立人臉識別數據庫。其他規定則預計將在2025年至2027年期間逐步生效。
根據《衛報》(The Guardian)報導,年利達律師事務所(Linklaters)合夥人庫尼森(Guillaume Couneson)指出:「用戶將能夠相信他們所使用的AI工具已經過仔細審查並且可以安全使用,就像銀行應用程式的用戶能夠信任銀行已經採取嚴格的安全措施,使他們能夠安全地使用應用程式一樣。」
除了對歐盟約4.48億人口的影響,該法案可能在全球其他地區也產生重要影響。庫尼森補充說:「許多國家都將關注歐盟AI法案通過後的情況。只有在證明有效的情況下,其他地區才可能效仿歐盟的做法。」那麼,這個法案將如何保護消費者權益,並且科技公司對此有何看法?以下將為讀者介紹:
如何應對AI帶來的風險?
該法案禁止構成「不可接受風險」的AI應用方式,包括:
◆用於操縱他人的系統。
◆如中國根據居民個人特質或行為進行「評分」的社會信用評分系統。
◆利用科技預防犯罪的預測性警察活動(predictive policing)。
◆在工作場所或學校監控人們情緒的情緒監控系統。
◆基於生物特徵(例如視網膜掃描、人臉識別、指紋)對人們進行篩選以推斷種族、性取向、政治觀點或宗教信仰等方面的「生物特徵分類」系統。
◆通過從網路或監視器擷取人臉圖像來建立人臉識別數據庫的系統。
國安用途豁免
臉部識別技術是立法期間的一大爭議點。即時生物特徵識別系統(包括對現場人群的臉部識別技術)被禁止使用,但在某些情況下,執法機構可以這麼做。執法機構可運用此技術尋找失蹤人員或防止恐怖攻擊,但須經過當局批准。此外,在特殊情況下,甚至可在未經批准的情況下利用臉部識別技術。
由於豁免了針對軍事、防衛或國家安全用途的AI工具,這引起了許多科技安全倡導者的警惕。德國非營利組織Algorithmwatch的政策副主任菲特-迪特爾曼(Kilian Vieth-Ditlmann)表示:「我們擔心AI法案中的國家安全豁免條款給了成員國繞過重要AI規定並濫用權力的可能性。」