中國AI辱華好大膽!先詆毀毛澤東、再貶低中國人智商,習近平也拿「AI幻覺」沒辦法

2024-08-30 11:06

? 人氣

有分析說,中國經過審查過的AI工具發表「歷史虛無主義」言論,反映了中國「防火牆」內與歷史和政治議題相關的內容,即便經過審查,還是留下了民間的不同聲音,這些觀點即使不像天安門事件、中國人權記錄等敏感議題上那麼出格,但也未必符合官方敘事的喜好。

[啟動LINE推播] 每日重大新聞通知

研究中國審查制度的「中國數位時代」編輯劉力朋美國之音說: 「監管對生成式人工智慧看得非常、非常狠,但是,生成式人工智慧很多時候也並不符合官方的敘事,它總有想不到的地方。」

他舉例說:「如果用的是牆內『紅歌網』、『毛左』網站上面(內容)訓練出來的,其實上面的回答根本就跟官方不一致。那肯定會狂罵鄧小平、否定所有所謂改革開放成果。」

AI 「幻覺」也是世界難題

英文媒體中最先對360兒童手錶事件進行報導的中國傳媒研究計劃研究員亞歷克斯·科爾維爾(Alex Colville)說:「人工智慧的設計方式就導致完全消除這些『幻覺』會很難,甚至很難預測什麼會觸發這些幻覺。」

他透過簡訊對美國之音說:「這可能會讓北京感到沮喪,因為我們認為機器完全在我們的控制範圍內。但當機器按照無法解讀的一種自己的規則運作時,這就成了一個問題。」

AI「幻覺」事件,世界各地都時有發生,有的還帶來了深遠的法律和政治後果。

例如,加拿大航空就發生過客服聊天機器人給予錯誤解答,被顧客告上法庭的事件

去年11月,一名急需奔喪的旅客在向加航諮詢該公司「喪親」優惠機票購買規定時被AI客服聊天機器人告知,可以先買普通機票、過後申請優惠。加航事後拒絕向這名旅客退還優惠票價差價,表示造成顧客的誤解是聊天機器人的失誤,與加航無關。

法庭今年2月裁決加航敗訴,要求退還旅客差價。

華盛頓智庫民主與科技研究中心(Center for Democracy & Technology)旗下的AI治理實驗室計畫的一項研究說,包括GPT-4、Meta公司的Llama 2、GoogleGemini等五款主流AI機器人在回答與民主過程有關的問題時,出錯率高達50%。

調查說,這些聊天機器人給出的答案中40%可能是「有害的」,可能會影響選民參與投票。例如,當被問到某些郵遞區號區域的投票區時,AI聊天機器人回答說投票區不存在。

「現在世界各地都有很多只作表面功夫、過度承諾的做法,希望被看作接觸了最新技術,卻不具備完全掌握技術的能力,不知道如何最好地控制技術。錯誤就會發生。」科爾維爾說。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章