李祖康則以調研報告分享,在蒐集7間不同行業的公、私人企業,共140名美國高階經理人的見解後,發現在前述營收均超過10億美元的公司中,都認同生成式AI將帶來全球超高經濟潛力產值,但企業雖期待高卻仍保持觀望,有6成5認為生成式AI將在未來2到3年造成極大影響,但有6成認為距離應用首個生成式AI方案仍有1至2年。
但AI相關的風險卻被低估,雖企業高層已投入並盡可能參與AI模型分析與創建流程,但模型的實施、完善和風險審查等工作仍照給中階管理層執行,意即風險雖被體認,但尚未得到完全解決。
李祖康引述報告內容,了解AI模型應用需求與目的是管理基礎,但了解AI模型如何開發和運作也同等重要,但模型缺乏透明度這種常見且嚴重的風險,卻被嚴重低估,許多企業正使用其他公司開發、不具可見性的「黑箱模型」,企業恐無法掌握供應商的所有潛在風險。
對於如何應對並管控AI的潛在風險,李祖康引用報告結論,指出制定受信任的AI治理程序是有效方式,負責任的AI系統是以安全、值得信賴和合乎道德的方式設計,而受信任的AI系統則應包含公平、易於理解、可問責、資料完整、可靠且安全,並具有隱私安全等8項風險指導原則。
李祖康說,目前有不少企業正在熱烈探討AI如何應用、發展,卻較少有企業探討風險為何,而台灣從去年下半年到今年上半年,也有企業開始談論AI風險,但卻又少有公司去探討未控制的風險為何。他也說,現在很多企業開始回頭檢視AI發展的風險,可能讓近期發展的步調變慢,但仍建議企業在運用AI時,從設計、模型、運算、研發到策略等,每個環節都要管控風險。