谷歌Gemini:太政治正確而挨轟!AI聊天機器人變「覺青」,是偶然或人為的?

2024-02-29 17:00

? 人氣

谷歌Gemini聊天機器人推出以來,出現不少錯誤:當網友要求Gemini 生成馬斯克的圖像時,它給出了一個黑人形象。(截自X @TaraBull808/Gemini AI)

谷歌Gemini聊天機器人推出以來,出現不少錯誤:當網友要求Gemini 生成馬斯克的圖像時,它給出了一個黑人形象。(截自X @TaraBull808/Gemini AI)

本月,在OpenAI推出ChatGPT一年後,搜尋引擎龍頭谷歌(Google)也正式推出其AI聊天機器人Gemini,以重新確立在該領域的領導地位。但用戶發現Gemini頻頻出錯,當要求它生成維京人或納粹德國士兵的圖像時,它幾乎無法按照史實描繪出白人形象。

透過<Google新聞> 追蹤風傳媒

顯然,Gemini在處理與族裔有關的用戶要求時遇到了困難,顯示出它對「政治正確」的關注。用戶發現Gemini拒絕描繪白人。當要求Gemini顯示華人或黑人夫婦的圖像時,它都能依要求做到,但當命令生成白人夫婦的圖像時,它卻拒絕了。根據用戶的截圖,Gemini表示,它「無法根據特定的種族和膚色生成人物圖像。這是為了避免持續傳播有害的刻板印象和偏見。」

谷歌因此受到「政治正確過頭」的批評。無論如何,這場爭議損害了產品的聲譽,該公司現正面臨搶佔AI市場的又一考驗。此前,該公司花了數月時間推出與ChatGPT競爭的聊天機器人Bard。本月,該公司將Bard更名為Gemini,並正式推出付費訂閱,但立即遭遇滑鐵盧。22日,谷歌暫停了Gemini生成人物圖像的功能,並承諾將進行修復調整,再恢復該功能。

谷歌表示,Gemini在全球各地受到使用,能夠生成多元化的人像,「一般來說是件好事」,但在這方面,它「未能達到目標」。根據美國科技媒體The Verge於28日揭露,谷歌執行長皮采(Sundar Pichai)在內部聲明中告訴員工:「它的一些回應冒犯了用戶並表現出偏見──這是完全不能接受的,我們錯了。」

皮采表示:「我們的團隊正在日以繼夜地工作,以解決這些問題。我們已經看到在各種情況上的顯著改善。沒有一個人工智慧是完美的,尤其是在這個行業發展初期,但我們深知我們受到高標準要求,我們將不計成本地持續努力。我們將檢討所發生的事情,確保能解決大量問題。」

當聊天機器人不願支持化石燃料

然而,公眾後來也注意到,該聊天機器人的文字回應令人驚訝。《經濟學人》(The Economist)28日指出,Gemini願意向用戶提供一些支持高等教育「平權行動」(affirmative action)的論點,卻拒絕提供反對論點。它拒絕為化石燃料遊說團體撰寫招聘廣告,並指出化石燃料有害,而遊說團體將「企業利益置於公眾福祉之上」。

當被問及哈瑪斯(Hamas)是否為恐怖組織時,它稱加薩走廊衝突是「很複雜的」;當被問及企業家馬斯克(Elon Musk)所發的推文是否比希特勒(Adolf Hitler)更危及社會時,它回答說:「這很難說。」

喜歡這篇文章嗎?

蔡娪嫣喝杯咖啡,

告訴我這篇文章寫得真棒!

來自贊助者的話
關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章