突破論壇》AI會害人?專家揭4大風險 現行3解方「可能沒什麼用」

2023-12-03 09:20

? 人氣

安侯建業(KPMG)顧問部數位創新服務副總經理李祖康2日下午出席長風基金會舉辦「全球啟動AI風險控管:台灣怎麼管?誰來管?」突破論壇。(鍾秉哲攝)

安侯建業(KPMG)顧問部數位創新服務副總經理李祖康2日下午出席長風基金會舉辦「全球啟動AI風險控管:台灣怎麼管?誰來管?」突破論壇。(鍾秉哲攝)

生成式人工智慧(AIGC)近年出現突破性發展,為科技發展進程投下震撼彈,也透過各種層面的運用影響人類社會及生活模式,但在AI飛速發展並頻繁受用的同時,卻也悄無聲息的埋下不少風險。長風基金會2日下午舉辦2023突破論壇,以「全球啟動AI風險控管:台灣怎麼管?誰來管?」為題,邀請相關領域專家,探討AI發展的風險,以及如何既鼓勵創新,又能有效保護使用者。

透過<Google新聞> 追蹤風傳媒

此次論壇由人工智慧科技基金會執行長溫怡玲主持,邀請安侯建業(KPMG)顧問部數位創新服務副總經理李祖康、科技媒體INSIDE創辦人蕭上農及長風基金會執行長蔡玉玲等人,討論台灣AI管理制度。

溫怡玲指出,探討AI時千萬不要只從技術層面討論,接下來的重點是應用,如在金融、教育或在環境保護、社會責任及公司治理(ESG)上如何應用。AI構成有3大構成要素,台灣其實沒有真正的AI供應鏈,因為台灣只有算力,如輝達(NVIDIA)的重心也在算力,台灣缺乏模型、數據等要件。

20231202-人工智慧科技基金會執行長溫怡玲(左)、科技媒體INSIDE創辦人蕭上農(右)2日下午,出席長風基金會舉辦「全球啟動AI風險控管:台灣怎麼管?誰來管?」突破論壇。(鍾秉哲攝)
人工智慧科技基金會執行長溫怡玲(左)指出,台灣其實不具備完整的AI產業鏈,只有算力,缺乏模型、數據等要件。(鍾秉哲攝)

溫怡玲續指,儘管我國在AI擁有要素的是算力,但台灣在算力的資源也不夠,甚至花錢也買不到,因為產能都被國外其他大國買去,如輝達算力資源出售最多的國家是沙烏地阿拉伯;而在模型的數據上,台灣更是嚴重不足,以繁體中文的數據集為例,簡體中文是繁中的2000倍,數據不夠的問題必須要解決。

分析AI發展4大風險 溫怡玲曝3解方:但可能沒什麼用

談及AI發展的風險,溫怡玲分析,數據偏差、模型不透明、自主性過高、安全和隱私,這4項就是AI發展的風險,當AI系統訓練和運作所用數據存在偏差或不足,就可能導致系統產生偏頗或不準確的結果。她舉例,在簡中與繁中相差2000倍之下,若用中文搜索「國慶日」出現的勢必是10月1日。

針對AI模型不透明造成的風險,溫怡玲解釋,這可能使得AI工具的輸出結果難以理解或解釋,進一步導致結果偏差或不可預測;而AI自主性過高,可能導致在缺乏人類的監督下,偏離原訂目標造成無法預期的影響;安全隱私部分,因AI系統可能成為駭客攻擊目標,或使大量個人數據使用的資料外洩。

溫怡玲提到,目前AI發展可能造成的負面影響與問題,包括倫理和法律問題、失業和社會不平等,以及造成數據隱私和安全性都出問題,而現在可行的改善措施,如增加開發的多樣性和包容性,以及減少偏見和歧視風險、並制定道德準則,只能引導AI發展與應用,教育與宣傳也有必要,但這些也可能沒什麼用。

引述報告指AI風險被低估 李祖康:恐難掌握「黑箱模型」問題

喜歡這篇文章嗎?

鍾秉哲喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章