當ChatGPT「一本正經胡說八道」,如何破除「AI幻覺」?《經濟學人》的四種可能解方

2024-03-05 20:00

? 人氣

《經濟學人》進一步解釋,大型語言模型的建構並不像搜尋引擎或是百科全書那樣能夠完美檢索,由於模型的資料大小勢必遠遠不如於訓練資料庫的大小,因此AI必須透過「壓縮」來進行學習。導致大型語言模型只保留了資料的關鍵特徵,彷彿是解析度低了許多的模糊照片。儘管有些事實不容易搞錯,例如「巴黎」可能始終都是「法國的首都是⋯⋯」之後出現機率最高的回覆,但更多統計上不太明顯的事實,就可能會在模型進行資料壓縮的過程中被搞錯。

透過<Google新聞> 追蹤風傳媒

訓練AI時微調參數權重

此外,當預先訓練的大型語言模型遭到「微調」時,可能會進一步出現失真。這通常出現在AI的訓練後期,生成式AI會參考預測結果的對錯,持續微調參數的權重,目的是希望藉由一次次的微調可以使AI變得極為精確,達到每次都能產生正確的輸出值。然而根據對話紀錄進行微調的過程中,可能會增加AI模型出現幻覺的機會,因為AI可能會編造事實來增加趣味性。《經濟學人》認為,調整AI模型的參數權重有助減少「幻覺」,比方說刻意建立一個有缺陷的模型,並根據與提示相矛盾或有所缺漏的資料進行訓練,進而研究人員可以從原始模型的權重中找出修改方向,達到降低「幻覺」的目的。

調整「溫度值」

《經濟學人》還提出了其他三種有助消除「幻覺」的解方:包括改變ChatGPT的「溫度」(temperature,範圍是0到2)參數,這個參數可以改變AI產出的創意程度和連貫性,較低的溫度值使AI模型更加保守,但準確性和一致性會比較高;較高的溫度值則會增加選擇的隨機性,因此產生更有創意的回應,但答覆的內容也有可能離題。如果目標是減少幻覺,則溫度應該設定為零。此外,也可以限制模型只選擇機率較高、排名較前的選項進行答覆,這種做法降低了回應不佳、離題的可能性,同時也允許一定的隨機性,從而保留回應的多樣性。

巧妙引導AI

巧妙的提示也可以減少生成式AI產生幻覺。Google DeepMind的研究人員發現,告訴大型語言模型「慢慢來、一步一步處理這個問題」,可以減少錯誤回應、並且提高解決問題的能力,尤其是數學問題。《經濟學人》解釋,AI模型會學習範例和回覆模式,將問題拆解為更小、更單一、精確的問題,模型更有機會識別並應用正確的範例進行回應。不過愛丁堡大學的自然語言處理專家愛德華多・龐蒂(Edoardo Ponti)認為,這種做法只是「治標不治本」。

RAG:檢索增強生成

《經濟學人》也提到了RAG(Retrieval-Augmented Generation),也就是「檢索增強生成」技術。RAG將AI模型的工作分為兩部分:檢索和生成,前者負責從外部知識庫(例如報章雜誌等)中檢索相關的訊息、提取提示中相關的上下文資訊,生成訊息時再根據檢索到的資訊進一步處理。這種做法可以使大型語言模型發揮摘要與改寫的優勢,而非進行研究工作——進而減少幻覺的產生。包括計算機和搜尋引擎這樣的外部工具,也可以透過RAG的方式連接到大型語言模型上,有效地為其建立補強的支援系統。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章