儘管AI技術已經引發各國政府積極討論監管對策,但義大利在今年三月底先開出了強硬的第一槍—該國數據保護局(GDPR)決定要求OpenAI限期20天內要解決隱私風險,否則將禁止ChatGPT在義大利境內的使用。
義大利政府認為,開發ChatGPT的公司OpenAI在大量搜集用戶數據來訓練模型時,缺乏用戶同意及法律根據,另外,OpenAI也曾發生過洩漏用戶信用卡末四碼卡號、看到其他用戶的聊天標題記錄等事件,都讓大眾對OpenAI的資安控管能力產生疑慮。義大利是基於防範隱私疑慮及數據外洩風險,才會發出這個警告。直到上月底義大利政府聲明,確認OpenAI符合隱私法規,才讓它重新對義大利人民開放。不過有趣的是,發表禁令期間義大利地區用Google 搜尋 「VPN」的趨勢大增,顯示網友「翻牆」也要繼續使用ChatGPT!
義大利政府對AI態度明顯趨向嚴格已不是頭一遭。今年二月,義大利一樣出於隱私保護因素,禁了另一款來自美國的虛擬陪伴聊天機器人Replika搜集用戶數據,原因是這款應用違反了歐盟通用資料保護規則(GDPR)。
其實,歐盟早在2021年就提出討論AI技術監管的相關法案,其他西方國家如德國、法國、愛爾蘭也開始針對此議題進行法律討論,不過政策制定的速度總會跑輸技術發展。這也引發大家省思AI技術的缺點——《經濟學人》早就說過數據是新時代的石油(The world's most valuable resource is no longer oil, but data.),在數據的戰略地位越發重要之際,以後「保護個資」會不會只淪為口號,根本無法實際做到呢?
數據所有權成為另類金礦
AI技術恐導致個資外洩,是個需要高度重視的問題。因為ChatGPT是經由爬梳大量網路上的網站、貼文、文章資料,來提供模擬人類的真實且具參考性的對話。若在政策落地之前,擁有用戶數據及內容的平台搶先保障自己的權益,或者說利益,以免白白幫助像OpenAI的公司發展,自己卻錯失大賺一筆的機會,這是經濟學的合理選擇,但要如何兼顧用戶隱私?實在仍看不到明確保障的辦法。
比如美國知名論壇Reddit在今年四月公開表示,Reddit文本庫內存的大量用戶真實貼文、留言討論,是對AI擴充學習相當有幫助的寶貴資料,為了不讓AI技術公司白白使用這些資源,Reddit將在今年六月推出存取該API的付費方案,日後相關技術團隊若為了訓練AI而想要取得Reddit的內容資料,就得乖乖付錢了!