怎麼確保聊天機器人不說中共壞話?中國瘋狂追捧ChatGPT的獨特難題

2023-03-06 16:04

? 人氣

「我們(在近年科技行業的鎮壓中)已經被監管機構盯上,所以即使沒有禁令,我們也絕不會主動將ChatGPT置入平台,因為它的反應是無法控制的」,另一家科技公司的高層說道,「難以避免會有一些用戶向聊天機器人提出政治敏感問題,但對結果負責的是平台。」

透過<Google新聞> 追蹤風傳媒

OpenAI公司的「聊天機器人」ChatGPT是AlphaGo之後,最受全球矚目的人工智慧應用程式。(美聯社)
OpenAI公司的「聊天機器人」ChatGPT是AlphaGo之後,最受全球矚目的人工智慧應用程式。(美聯社)

施耐德與維爾奇指出,根本問題在於,中國境內禁止許多言論,而越界的懲罰非常嚴厲,一個聊天機器人若暗示「台灣是一個獨立國家」或說「天安門廣場是一場大屠殺」,恐怕會導致中共對其母公司大發雷霆。若想根本解決中共的擔憂,比須確保LLM「永遠不會說任何貶低中共的話」,但這是不可能的任務。

哈佛大學電腦科學博士夏維特(Yonadav Shavit)指出,LLM的輸出是不可預測的,因為它學習人類的自然語言,當然會受到人類語言推理、偏見和不準確的影響,也因此用戶可以毫不費力地「催眠」或「欺騙」模型,使模型輸出開發人員極力阻止它輸出的言論。

「迄今為止,用戶嘗試讓模型打破自己的規則,總是能成功,」夏維特說,「就算只是讓語言模型遵循『不要威脅你的用戶』這樣的簡單規則,也將是下一代AI的關鍵研究問題。」

OpenAI公司的「聊天機器人」ChatGPT是AlphaGo之後,最受全球矚目的人工智慧應用程式。(美聯社)
OpenAI公司的「聊天機器人」ChatGPT是AlphaGo之後,最受全球矚目的人工智慧應用程式。(美聯社)

怎麼確保AI聊天機器人不說中國壞話?

中國國家互聯網信息辦公室不會僅因為聊天機器人很難控制,就對一家科技公司手下留情,那麼中國AI開發人員該怎麼辦?施耐德與維爾奇指出,一種可能的解決方案是阻止模型了解1989 年天安門事件等敏感訊息。但正如夏維特觀察到的那樣,沒有人知道該怎麼不讓模型在網路上學習基本事實。

另一種選擇是,讓LLM對敏感提問做出類似「作為百度聊天機器人,我不能……」的回應。但同樣,考慮到聊天機器人的隨機性,這種做法並不能保證永遠不會出現讓中共冒冷汗的敏感政治言論。

開源聊天機器人WeChaty李卓桓向《VICE》指出,棘手的是中國審查準則模棱兩可、反覆無常,「你必須確保這個模型可以遵循很多規則,但你不知道必須遵守的規則確切長什麼樣。」

為了不違反監管機構的規定,中國社交媒體平台開發強大的算法來審查潛在敏感內容,並聘請成千上萬的審查人員手動刪除敏感貼文。然而中共審查員恐怕已經工作過量,中共可能會擔心AI生成內容會對審查體系造成哪些衝擊。

中國電動汽車製造商集度(Jidu)概念店,展示其人工智慧科技與ROBO-01概念車為。(美聯社)
中國電動汽車製造商集度(Jidu)概念店,展示其人工智慧科技與ROBO-01概念車為。(美聯社)

施耐德與維爾奇指出,習近平欲將中國轉變為科技強國的其中一個原因是,技術成就將緩解中國迫在眉睫的人口危機和經濟成長放緩趨勢,避免中國陷入可怕的中等收入陷阱。

但從長遠來看,中國若要全面應對這些挑戰,仍需要有一個能承受多元創造的體系。無論哪個國家,若要在AI領域脫穎而出,需要良好的數據、高效的算法、頂尖人才和計算能力,也需要能夠帶來有效生產力變革的監管機構。

本篇文章共 1 人贊助,累積贊助金額 $ 45

喜歡這篇文章嗎?

蔡娪嫣喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章