喬治城大學麥克多諾商學院(McDonough School of Business)的企業管理副教授Jason Schloetzer建議,生成式AI開發公司可以從訓練資料庫修正,讓人類的判斷介入,減輕AI模型的偏見風險。
四,用企業版本AI,資安更有保障
許多生成式AI開發商會推出一般使用者版本跟企業版本的AI,相較於前者,後者的資安與隱私等級更高。以ChatGPT為例,ChatGPT企業版就有在對話內容加密,運算速度也快兩倍。雖然企業版要付費,但顧問公司Gartner的AI分析師Arun Chandrasekaran建議,企業最好使用企業版本的生成式AI模型,以確保資料安全。
五,使用外部資料訓練,就要小心侵權
最後,因為生成式AI是使用外部的資料訓練,當中可能會有受智慧財產版權保護的內容,所以AI產生的內容可能會有侵權問題。雖然美國版權局(U.S. Copyright Office)多次駁回侵權主張,但相關爭議仍持續不斷。許多智慧財產權擁有者對OpenAI提起集體訴訟,而該訴訟目前仍在舊金山的法院進行。
目前美國法律並沒有任何關於AI使用版權素材的相關明確規範。在相關法律設立之前,專家建議公司的法律團隊應篩選AI所使用的素材,以發現潛在的版權問題;若有爭議,公司也可以向生成式AI供應商尋求賠償。
歐盟則是在2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,讓因為AI而受損害者能夠容易獲得賠償,也減輕受害者請求損害賠償的舉證責任。至於台灣,目前對於AI侵權是以民法侵權行為相關條文與消費者保護法處理。
雖然生成式AI可以當職場上的助手,但因為它是由外部的資料訓練,所以會衍生偏見、資安與侵權等問題,而且AI產生的內容也未必完全正確,所以使用ChatGPT等工具需要抱有謹慎與懷疑的態度,不要過度信任,以確保工作產出的可靠度。
本文為風傳媒特邀導讀人金牛幫幫忙撰寫,請點此訂閱:風傳媒・華爾街日報VVIP,風傳媒會員獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。
責任編輯/郭家宏