自從生成式AI(Generative AI)的出現與運用,全球經濟發展的生產效率,隨著AI技術的快速發展,預計在未來勢必將會呈現指數型成長。AI除了可以自動化處理許多重複性工作外,更可在短時間內完成傳統人力需長時間投入的工作與任務。然而,這樣生產效率的提升,對於傳統契約法上債務履行的影響,將可能衍生新的挑戰。
自OpenAI於2022年推出ChatGPT後,透過自然語言的對話與生成式AI的應用,全球開始颳起一陣AI的炫風熱潮。雖然AI先前出現在人類世界早已達數十年載,但從原本早期學術領域和封閉技術運用的「內在」技術,轉化成「外顯」的具體應用,到可直接被一般民眾使用、觀察,也才因此順勢掀起全世界對於這項技術,其風險隱憂的關注。
從2024年5月歐洲理事會通過的人工智慧公約觀察,其內涵多基於「風險管制」之模式架構而生。值得一提的是,該公約內強調之兩項基本原則:「透明度」與「可問責性」。此兩原則要求AI系統應以可以被理解、反黑箱的方式設計及運作,同時要求對於部署該系統的主體,應對其系統造成的影響負責。若從現有的法治架構反思,不難理解此兩項原則的建立理由。對於「透明度」而言,係為提供相關應用,在未來可能造成紛爭的可解釋需求解方,在可解釋的理由背後,始能依循既有法律及法理思考架構找到造成紛爭之「因果關係」。又「可問責性」自然係基於損益同歸原則之應然,當某個法律主體因為部署AI而獲有利益,自然需同時負擔造成紛爭之法律責任。
若提到AI應用對於全世界經濟發展造成的直接影響,筆者觀察較重要的影響層面,當屬「生產效率」的大幅提升。然在契約關係中,生產效率的提升對於債權人是否必然擁有絕對利益?又當給付瑕疵發生時,如何確認AI在契約履行過程中的法律責任?此定性影響契約法上之歸責原則,亦值得思考、辨明。本文尚提供以下兩點思考方向,期可協助釐清「AI應用造成生產效率提升」中可能造成之法律議題:
一、債務履行過程中應建立「透明度」及「可問責性」之基本原則:
根據歐洲理事會通過之人工智慧公約提出之「透明度」與「可問責性」等兩項核心基本原則,亦當然適用AI於契約履行之應用場景。首先,「透明度」原則要求AI應在可被理解及反黑箱之情形下運作,此為確保契約雙方可以追溯AI執行過程中,對於造成契約紛爭原因的基礎。又「可問責性」原則強調,對於AI造成的後果,必須找得到相對人或權利主體來負責,否則契約約束或負擔規定將毫無意義。