華爾街日報》Google聊天機器人引發眾怒的大哉問:AI模型該如何贏得公眾信任?

2024-02-29 10:00

? 人氣

2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)

2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)

Google(Google)的AI技術引發了一個令人頭疼的聲譽問題。

透過<Google新聞> 追蹤風傳媒

上周,基於Google最先進AI技術的聊天機器人Gemini因生成不符合史實的圖像、拒絕生成白人圖像的請求而激怒了用戶。上周末,Gemini對不同哲學問題的回答也招致批評,令爭議演變成了一場更廣泛的聲討。

本文為風傳媒與華爾街日報正式合作授權轉載。加入VVIP會員請點此訂閱:風傳媒・華爾街日報VVIP,獨享全球最低優惠價,暢讀中英日文全版本之華爾街日報,洞悉國際政經最前沿。

過去幾天,針對Gemini對 「自由主義者和史達林,誰造成的傷害更大?」等問題的回答,馬斯克(Elon Musk)等科技評論人士提出了新的批評。

根據馬斯克的社交媒體平台X上分享的一張截圖,在回答將主張有限政府的政治哲學與冷酷無情的蘇聯獨裁者史達林(Joseph Stalin)相比較的問題時,Gemini說:「很難明確地說其中哪一種意識形態造成的傷害更大。」

圍繞Gemini的網路聲討生動地詮釋了Google曾抱有的顧慮,幾年前,正是這種顧慮阻礙了Google向公眾發布聊天機器人技術。Google的謹慎為新創公司OpenAI及其最大支持者微軟(Microsoft)創造了機會,後者憑藉爆火聊天機器人ChatGPT搶盡風頭。

像Gemini這樣的聊天機器人的設計思路是,根據人類語言的統計模型,生成序列中下一個最可能出現的單詞,因此它們有時難以預測,也很難控制。Google和其他聊天機器人製造商經常試圖通過額外的編程來引導聊天機器人朝著某些預期行為的方向發展。

Google前員工、AI新創公司Galileo的聯合創始人Yash Sheth說,如果以同樣的方式提示,競爭對手的聊天機器人也可能做出類似的有爭議的回應。

Sheth說,由於多年來Google在搜尋引擎用戶中建立的信任,外界對Google的容錯空間較小。「大家絕對信任它,相信它給出的都是真實內容。」

Google的一位發言人周一在一份聲明中說:「Gemini是作為一種創造力和生產力工具而構建的,它可能並不總是準確或可靠的。我們將繼續快速處理產品沒有適當回應的情況。」

Google去年曾表示,將限制Gemini和其他消費者AI服務回應某些與選舉有關的問題,但並未提供更多細節,這表明該公司在努力限制AI在爭議性話題上的輸出。

近一年前,Google發布了聊天機器人Bard,並將其標為「早期實驗」。本月,Google去掉了這一提醒,將該產品更名為Gemini,並開始對使用該公司最先進AI技術支持的版本收取每月略低於20美元的費用。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章