沒學過程式,你也能當工程師?ChatGPT新應用再發威,讓素人也能開發軟體系統

2023-07-10 09:40

? 人氣

延伸閱讀:ChatGPT怎麼使用、GPT-4是什麼?一篇看懂中文操作註冊步驟、背後原理!

結合生成式AI開發寫程式系統,道德架構必須優先

軟體公司Pega的科技長Don Schuerman表示,結合生成式AI與low-code兩種工具,可以縮短從概念、實驗到推出實際產品的鴻溝,進而加速商業創新。然而他也指出,當中有很多細節,是企業導入這兩種技術時需要注意的。

透過<Google新聞> 追蹤風傳媒

例如Don Schuerman認為,AI的責任與道德架構永遠必須是研發過程中第一考量。也就是說,AI的運作與決策得透明化,必須「訓練AI到能完整解釋如何,以及為何做出相關決定的程度」。如果決策邏輯不透明,企業就無法為終端使用者提供公平、一視同仁的服務。此外,因為AI的訓練基礎是使用人類餵養的資料,但人類社會有不可避免的潛在偏見,所以資料自然也會有偏差,用這些資料訓練出來的AI,也容易產出帶有偏差眼光的內容,代表系統必須做偏見測試(bias testing),確保不會產生偏誤。

Don Schuerman也堅持,人類一定要參與在開發過程中(keeping the human in the loop),不能只是放任AI自行生出結果、人類只負責檢查錯誤與修改。原因是,目前AI仍無法掌握客戶同理心(customer empathy)。藉由人類參與開發,可以讓AI更能理解消費者心理,提供符合使用者需求的產品與服務。

Suman Bhowmick也提出類似觀點,認為就算生成式AI能讓過程自動化,但還是需要人們投入智慧與創造力。例如領域專門的問題、利基組織性的問題、以人為中心的設計問題還是要由人類親自解決。但有生成式AI的協助,會讓尋找最佳解的過程更容易。顧問公司IDC的研究經理Michele Rosen則認為,要讓生成式AI產出完全符合使用者需求的程式有難度,low-code相對較快、較容易。

生成式AI還無法掌握專利,可能有侵權的問題

除了數據偏誤與AI對人性掌握的問題,智慧財產權與機密也是生成式AI技術用於企業的重要課題。就智慧財產權而言,因為生成式AI產出內容時,並不知道自己引用的資料哪些有著作權與專利,代表它可能會將有專利保護的、未授權的程式碼寫進自己的程式中。例如著名的開源程式平台GitHub,它導入ChatGPT協助開發者寫程式,目前就遇到法律上的爭議。

另外,雖然目前多數生成式AI用公開資料訓練,但Jim Rose表示,未來會有封閉式模型的潮流,也就是企業使用私有資料訓練生成式AI,以更貼合公司需求。但每個員工能接觸到的資料機密層級並不相同,Dion Hinchcliffe表示,企業必須要找出能讓AI根據提問者權限決定提供資料範圍的方式,但目前的AI技術不容易達成。

喜歡這篇文章嗎?

郭家宏喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章