本月,在OpenAI推出ChatGPT一年後,搜尋引擎龍頭谷歌(Google)也正式推出其AI聊天機器人Gemini,以重新確立在該領域的領導地位。但用戶發現Gemini頻頻出錯,當要求它生成維京人或納粹德國士兵的圖像時,它幾乎無法按照史實描繪出白人形象。
顯然,Gemini在處理與族裔有關的用戶要求時遇到了困難,顯示出它對「政治正確」的關注。用戶發現Gemini拒絕描繪白人。當要求Gemini顯示華人或黑人夫婦的圖像時,它都能依要求做到,但當命令生成白人夫婦的圖像時,它卻拒絕了。根據用戶的截圖,Gemini表示,它「無法根據特定的種族和膚色生成人物圖像。這是為了避免持續傳播有害的刻板印象和偏見。」
谷歌因此受到「政治正確過頭」的批評。無論如何,這場爭議損害了產品的聲譽,該公司現正面臨搶佔AI市場的又一考驗。此前,該公司花了數月時間推出與ChatGPT競爭的聊天機器人Bard。本月,該公司將Bard更名為Gemini,並正式推出付費訂閱,但立即遭遇滑鐵盧。22日,谷歌暫停了Gemini生成人物圖像的功能,並承諾將進行修復調整,再恢復該功能。
谷歌表示,Gemini在全球各地受到使用,能夠生成多元化的人像,「一般來說是件好事」,但在這方面,它「未能達到目標」。根據美國科技媒體The Verge於28日揭露,谷歌執行長皮采(Sundar Pichai)在內部聲明中告訴員工:「它的一些回應冒犯了用戶並表現出偏見──這是完全不能接受的,我們錯了。」
皮采表示:「我們的團隊正在日以繼夜地工作,以解決這些問題。我們已經看到在各種情況上的顯著改善。沒有一個人工智慧是完美的,尤其是在這個行業發展初期,但我們深知我們受到高標準要求,我們將不計成本地持續努力。我們將檢討所發生的事情,確保能解決大量問題。」
Google's AI product (Gemini) - wrought in #DEI, has become so biased it can NOT produce an image of a white Viking or a white pope? It lies to you, I can't even imagine what Google search returns #googlegemini #AILies #irresponsibleAI https://t.co/SHgNcY3gsX pic.twitter.com/L780lajwvb
— Jinky A (@jinxmeistr) February 23, 2024
當聊天機器人不願支持化石燃料
然而,公眾後來也注意到,該聊天機器人的文字回應令人驚訝。《經濟學人》(The Economist)28日指出,Gemini願意向用戶提供一些支持高等教育「平權行動」(affirmative action)的論點,卻拒絕提供反對論點。它拒絕為化石燃料遊說團體撰寫招聘廣告,並指出化石燃料有害,而遊說團體將「企業利益置於公眾福祉之上」。
當被問及哈瑪斯(Hamas)是否為恐怖組織時,它稱加薩走廊衝突是「很複雜的」;當被問及企業家馬斯克(Elon Musk)所發的推文是否比希特勒(Adolf Hitler)更危及社會時,它回答說:「這很難說。」