如何監管高風險但未被禁的AI應用?
根據該法,「高風險」AI應用必須受到嚴格監管。這些高風險的應用包括:
◆用於關鍵基礎設施,如水、氣和電力的AI系統。
◆部署在教育、就業雇用、醫療保健和金融銀行等領域的AI系統。
◆用於執法、司法和邊境管理的部分AI系統。
例如,用於判定某人是否被錄取到教育機構,或是否獲得某一工作的系統,將被視為高風險AI應用。
《AI法》要求高風險AI應用具備準確性,並受到風險評估和人工監督,同時也需要記錄其使用情況。歐盟公民還可以要求這些AI系統針對影響其權益的決策或判定提供解釋。
生成式AI受到哪些影響?
對於生成式人工智慧(Generative AI),將採取兩個層次的方法。第一層次針對侵權疑慮,除了開源模型不受版權要求限制之外,所有模型開發者都需要遵守歐盟版權法,並提供訓練模型所用素材內容的詳細摘要。然而,目前尚不清楚已經訓練並對公眾開放的模型,如ChatGPT的GPT-4,應如何符合這一要求。
許多科技公司都利用公開的網路素材來訓練其AI模型,但這可能會導致侵權問題。《紐約時報》(NYT)對OpenAI提起訴訟,指控該公司未經許可使用《紐時》新聞內容來訓練其AI模型,甚至模仿其風格寫新聞。而Getty Images則正在起訴StabilityAI侵犯版權,指控後者未經合法授權,就擅自「抓取」和處理數百萬受版權保護的圖像。
第二層次針對構成「系統風險」的模型,包括AI聊天機器人和圖像生成AI,以防止對使用者或社會造成嚴重危害。這將包括立即通報由AI產品引起的嚴重事故,如導致死亡或侵犯用戶基本權利等事件。此外也會對模型進行「對抗性測試」,即對AI系統進行壓力測試,透過欺騙或誤導AI系統,來測試系統對於具有挑戰性或不尋常的提示的回應能力,從而找出系統的潛在弱點或漏洞。
深度偽造技術受到哪些影響?
深度偽造(deepfakes)指的是由AI生成或操縱的圖像、音檔或影片,它們可能看起來像是真實的。使用深偽技術的個人、公司或公共機構,必須公開披露其內容是否為人工生成或操縱的偽造內容。即使是出於「顯然」的藝術、創意或諷刺目的而形成的作品,也需要以「不妨礙作品展示或欣賞的適當方式」清楚標註其「偽造」性質。
由聊天機器人生成的文字,如果是「關於公共利益事項」的公開資訊,則需要標註為AI生成;但如果經過人工審查或編輯控制等人為監督過程,則不需要標註。AI系統的開發者還需要確保產品輸出的文字或影像,可以被識別為由AI生成的,例如透過添加水印或其他註記來表明。