谷歌Gemini:太政治正確而挨轟!AI聊天機器人變「覺青」,是偶然或人為的?

2024-02-29 17:00

? 人氣

其他的圖像生成工具和聊天機器人也曾引起不少爭議。例如,它們傾向將企業家或醫生描繪成白人男性。谷歌也犯過類似的種族主義錯誤。在2015年,谷歌相簿將兩名黑人的照片誤標為大猩猩。為此,該公司花了多年的時間改進,試圖減少讓用戶感到冒犯的技術產出。在用戶搜索「醫生」等專業人士圖片時,該搜索引擎也盡可能呈現更多女性和多元族裔的結果。

透過<Google新聞> 追蹤風傳媒

在生成式AI領域中,谷歌希望Gemini避免重蹈覆轍,並設計它能夠展示多樣化的族裔特徵,但卻使其陷入另一個困境──將美國首任總統喬治.華盛頓(George Washington)描繪成黑人,將天主教教宗描繪成亞洲女性。

Gemini「覺醒」,是偶然或人為?

產品推出前沒有做好充分的測試,可能是Gemini引起爭議的部分原因。《彭博》(Bloomberg News)科技專欄作家奧爾森(Parmy Olson)在28日的評論文章中指出,此前OpenAI迅速推出像ChatGPT這樣的產品,並表示這有助於研究其安全性和影響,同時為未來更強大的AI技術問世做準備。這些做法使得將大眾使用者當成「白老鼠」的行為變得合理化。

而谷歌的皮采現在也持有類似的觀點。根據他去年對美國媒體的發言,藉由推出「半成品」的AI工具,可以讓人們逐步適應和理解人工智慧,以因應未來可能出現的更強大技術所帶來的挑戰。

賓州大學華頓商學院(Wharton Business School)教授莫里克(Ethan Mollick)指出,推出聊天機器人並讓用戶發現、回報其奇怪行為,能協助開發商快速修復問題,促使企業更快向前發展。然而,這樣做也伴隨著相應的風險和負面宣傳,企業必須做好準備。

奧爾森在專欄中指出,谷歌常常匆忙推出半成品,而忽略了安全檢查。早期的Bard就存在嚴重問題,據《彭博》調查,一位員工在內部留言板上發布了貼文,警告Bard產品本身「糟糕到不行:請不要推出」,而看到該貼文的7000名員工中大多數都表示同意。不久之後,進行風險評估的工程師向上級報告「Bard可能會造成危害,且尚未準備好」。谷歌隨後仍然公開推出了Bard。

2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)
2024年2月22日,Google為AI聊天機器人Gemini 「不準確之處」道歉,並且暫時停止生成人物圖像的服務。(美聯社)

《經濟學人》對Gemini聊天機器人變成「覺青」,是意外或故意設計的,提出了質疑。根據研究,ChatGPT等AI聊天機器人出現錯誤和編造內容,是因為它們會像人類一樣產生「幻覺」,但Gemini明顯經過刻意校準或「微調」以產生「政治正確」的回應,這不是AI模型產生的「幻覺」。

正如Stratechery資訊平台的創辦人湯普森(Ben Thompson)所評論,谷歌的內部文化似乎受到左派員工和批評者的太多影響。湯普森在他的文章中呼籲,谷歌應該開始「切割」那些有意濫用谷歌權力和影響力來實現政治目的的員工,並「將決策權交還給那些真正想做好產品的人」。他進一步表示:「這必然意味著排除縱容這些員工的人,包括執行長皮采在內。」

《經濟學人》進一步指出,谷歌這些行為有可能導致用戶流失,同時引起政治和監管方面的反彈。皮采表示Gemini正在進行修復。這句話引出了另一個問題:谷歌自身是否也需要進行調整?

奧爾森在專欄中總結指出,皮采深知谷歌有責任確保其AI系統公平且安全。然而,他現在被捲入將生成式AI快速應用於各個領域的競爭中,幾乎沒有動力確保其公平性和安全性。目前,我們之所以知道Gemini存在問題,是因為網友們的分享,但這個AI模型可能還存在其他我們不知道的問題。而這些問題可能連馬斯克都尚未發現,但同樣具有潛在危害。

奧爾森認為,Gemini將教宗變成亞洲女性、美國開國元勛變成黑人,這是因為谷歌將公司的成長和市場領先地位置於安全之上。在這種產業現象改變之前,大眾將繼續被當成AI產品的實驗「白老鼠」。

Gemini。(圖片來源:Google Blog)
Gemini。(圖片來源:Google Blog)

 

喜歡這篇文章嗎?

蔡娪嫣喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章