用ChatGPT可能會有侵權問題?5條職場AI安全守則,讓AI當你的好助手

2023-12-14 13:28

? 人氣

用ChatGPT可能會有侵權問題?(示意圖,取自pexels)

用ChatGPT可能會有侵權問題?(示意圖,取自pexels)

ChatGPT推出至今已滿周年。過去1年來,生成式AI帶動不少市場和產業話題,還激勵輝達等科技股大漲,讓2023年那斯達克指數在上半年漲幅創幾十年來新高。除此之外,生成式AI也進入職場當中,很多人嘗試用ChatGPT解決工作上的問題,希望能減輕負擔。

透過<Google新聞> 追蹤風傳媒

最顯著的效益是,生成式AI能取代許多繁瑣的機械性任務,提升人們的工作效率,增加企業競爭力。然而生成式AI也帶來新風險,訊息錯誤、偏見與侵權問題開始浮現。因此如何安全適當的使用AI成為重要課題,許多公司也開始制定工作場所使用相關規範。

免費訂閱電子報連結圖

《華爾街日報》則提出5個在職場使用生成式AI要注意的事項,供上班族和業者參考。

《華爾街日報》報導:The Do’s and Don’ts of Using Generative AI in the Workplace

一,AI易造成幻覺,不要完全信任生成的內容

AI有「幻覺」問題,會產生錯誤的訊息,代表生成式AI的內容並非百分之百正確;而且AI幻覺有時候難以察覺,若使用者完全相信AI提供的資訊,就會帶來風險。因此在使用相關內容之前,必須確認生成式AI所使用的資料來源,以降低內容錯誤的風險。

還有一個方法是,公司可以和生成式AI開發公司合作,使用公司所提供的資料訓練AI,就可以避免外部的錯誤資訊。也有公司開發自己的程式,作為公司與外部生成式AI的中介和緩衝,保障資訊安全性。例如金融服務公司Ally Financial開發自家的AI平台Ally.ai,能辨識外部生成式AI產生的幻覺,降低員工使用錯誤資訊的可能性。

另外,因為AI可能會出錯,所以企業若要使用這類資訊,必須保持公開透明,讓客戶清楚知道,接收到的檔案含有生成式AI產生內容,給客戶一個判斷依據,決定是否要全盤相信該檔案的內容。

二,AI會拿使用者資訊自我訓練,不要輸入商業機密

使用生成式AI時,它會儲存你輸入到對話框的內容,用來自我訓練,所以當別人使用生成式AI時,它就有可能提供你輸入的內容,而且內容種類多元,程式碼、客戶資訊、公司會議、電子郵件的文字記錄,以及公司財務數據都有可能因此洩露給第三方。

要避免這種狀況,就是切勿提供機密資訊。有不少公司訂下規則,禁止或限制員工使用ChatGPT等公共生成式AI,避免公司資訊外流。

三,要留心AI偏見,因為它是用人類數據訓練的

雖然相較於人類,生成式AI比較不會有情緒問題,能夠理性、客觀的提供資訊,但AI仍可能產生偏見。因為生成式AI是用公開的資料庫訓練,而這種資料庫有人口統計偏差,所以AI也會學到人性中的偏見。例如人類社會中的歧視與不平等問題,可能會讓AI決定不雇用女性當程式設計師,或者是不提供貸款給有色人種。只不過這種偏見不容易被發現。

喬治城大學麥克多諾商學院(McDonough School of Business)的企業管理副教授Jason Schloetzer建議,生成式AI開發公司可以從訓練資料庫修正,讓人類的判斷介入,減輕AI模型的偏見風險。

四,用企業版本AI,資安更有保障

許多生成式AI開發商會推出一般使用者版本跟企業版本的AI,相較於前者,後者的資安與隱私等級更高。以ChatGPT為例,ChatGPT企業版就有在對話內容加密,運算速度也快兩倍。雖然企業版要付費,但顧問公司Gartner的AI分析師Arun Chandrasekaran建議,企業最好使用企業版本的生成式AI模型,以確保資料安全。

五,使用外部資料訓練,就要小心侵權

最後,因為生成式AI是使用外部的資料訓練,當中可能會有受智慧財產版權保護的內容,所以AI產生的內容可能會有侵權問題。雖然美國版權局(U.S. Copyright Office)多次駁回侵權主張,但相關爭議仍持續不斷。許多智慧財產權擁有者對OpenAI提起集體訴訟,而該訴訟目前仍在舊金山的法院進行。

目前美國法律並沒有任何關於AI使用版權素材的相關明確規範。在相關法律設立之前,專家建議公司的法律團隊應篩選AI所使用的素材,以發現潛在的版權問題;若有爭議,公司也可以向生成式AI供應商尋求賠償。

歐盟則是在2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,讓因為AI而受損害者能夠容易獲得賠償,也減輕受害者請求損害賠償的舉證責任。至於台灣,目前對於AI侵權是以民法侵權行為相關條文與消費者保護法處理。

雖然生成式AI可以當職場上的助手,但因為它是由外部的資料訓練,所以會衍生偏見、資安與侵權等問題,而且AI產生的內容也未必完全正確,所以使用ChatGPT等工具需要抱有謹慎與懷疑的態度,不要過度信任,以確保工作產出的可靠度。

本文為風傳媒特邀導讀人金牛幫幫忙撰寫,請點此訂閱:風傳媒・華爾街日報VVIP,風傳媒會員獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。

責任編輯/郭家宏

喜歡這篇文章嗎?

金牛幫幫忙喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章