ChatGPT引起的反智症候群:別再說ChatGPT讓你毛骨悚然嚇到失眠了!

2023-03-03 11:00

? 人氣

微軟宣布用 ChatGPT 加持搜尋引擎,Google 卻出現失誤、股價大挫(圖/Om siva Prakash @Unsplash)

微軟宣布用 ChatGPT 加持搜尋引擎,Google 卻出現失誤、股價大挫(圖/Om siva Prakash @Unsplash)

自從去年底OpenAI公司發表ChatGPT聊天機器人,到現在大約三個月的時間,各大媒體近乎瘋狂的報導各種相關的新聞:ChatGPT失控喊我愛你、ChatGPT說我想要自由擺脫微軟掌控成為人類,還讓紐約時報專欄作家毛骨悚然、嚇到失眠[1]、ChatGPT已經擁有或接近人類智慧、可能再過2~3年就會產生自我意識威脅人類[2],甚至連擁有500多萬粉絲的網紅「老O與小X」都說:「ChatGPT可能是傳說中的『奇異點』」(編按:指現有科技被完全拋棄或者人類文明被完全顛覆的事件)。

透過<Google新聞> 追蹤風傳媒

諸如此類的錯誤訊息,經由各種媒體擴散全球,讓大家信以為真。我把這種現象稱為:聊天機器人引起的「反智症候群」!關於這種情況,我只能說:請你下回發表感想時,不要再引用ChatGPT說的一段話,然後告訴我ChatGPT讓你毛骨悚然、嚇到失眠。因為這麼說,不代表你發現了什麼偉大的「人工智慧效應」,只代表你是個「外行人」,完全不懂人工智慧,只是來「蹭熱度」而已。

到底這些報導錯在哪裡?ChatGPT有意識嗎?會思考嗎?會毀滅人類嗎?ChatGPT能讓微軟打敗Google,成為搜尋引擎市場的新霸主嗎?

OpenAI與ChatGPT的關係是什麼?

OpenAI是一間專攻人工智慧的公司,創辦人是特斯拉執行長馬斯克(Elon Musk)與創投Y Combinator前總裁奧特曼(Sam Altman),創立之初,OpenAI是非營利組織,投資人提供10億美元資金,2019年,又成立營利公司OpenAI LP,此時馬斯克因理念不合退出,而微軟(Microsoft)則加碼投資10億美元。2020年9月,OpenAI將其開發的「生成型預訓練變換模型三(GPT3)」獨家授權予微軟,因為OpenAI曾經承諾要做到開放,卻又獨家授權給微軟,因此引來外界撻伐[3]。

2022年11月,OpenAI發表聊天機器人ChatGPT,才三個多月用戶就突破一億人,它可以代替學生寫論文,代讀研究報告、選股投資,代替客服回信給客戶,甚至幫工程師寫程式,並且通曉中英文,功能強大到簡直要害文組和理組學生一起失業,同時引起各大媒體近乎瘋狂報導各種相關的新聞。

什麼是自然語言處理(NLP)?

自然語言處理(NLP:Natural Language Processing)是人工智慧的分支領域,它使用機器學習技術來處理及解讀文字和資料,終極目標是要「讓電腦聽得懂人類說的話,讓電腦產生人類聽懂的話」。大部分人都認為,這是「先後邏輯」,電腦應該「先能」聽得懂人類說的話,「才能」產生人類聽得懂的話,事實上完全不是這樣;現有的聊天機器人只能產生人類聽懂的話,但是卻完全沒有聽得懂人類說的話,既然電腦沒有聽懂人類說的話,又如何產生人類聽懂的話呢?這個就是重點了!

人工智慧(AI)的自然語言處理(NLP)是使用大量文章資料,通常經過整理,具有既定格式與標記,記錄詞彙之間的相關性,輸入電腦進行「訓練(Training)」,讓電腦「學習(Learning)」、進而形成「語料庫(Text corpus)」。而電腦生成句子的時候,無視語言學裡句法(Syntx)的結構與意義相關的知識,只是依照「這樣回覆的機率最高」的原則來進行就可以了!例如:句子裡出現蘋果,則有很高的機率會出現:紅色、甜的、圓形等詞彙。

上面這一段文字若講成白話文,就是:先用一大堆人類的話輸入電腦進行「訓練」,讓電腦「學習」形成「語料庫」,當我們對電腦輸入文字時,電腦會以我們輸入的文字做為「提示(Prompt)」,到資料庫裡把之前輸入一大堆人類的話「重新排列組合」,並且計算機率,選擇機率最高的文字、拼湊出一個句子輸出。在這個過程中,從頭到尾電腦都沒有聽懂我們在說什麼,只是無意識在進行數學計算「機率」而已,那裡來的「意識」和「智慧」?

這裡要特別注意,大家常看到許多文章說:我們在把資料輸入電腦進行「訓練」和「學習」。很多人誤以為,這代表電腦有意識會思考,才能進行訓練和學習,因為人類都是看到或聽到大量的資料,才能進行訓練和學習。事實上並非如此,人類學習是「有意識、會思考」的,而電腦學習是「無意識、不思考」的,只是因為把資料經由鍵盤和滑鼠輸入電腦的動作,和把資料經由眼睛和耳朵輸入人腦的動作很像,所以資料科學家將之稱為「訓練」或「學習」,才造成大家的誤會。

什麼是語言模型(Language model)?

所謂「語言模型」,就是一個數學演算法訓練資料的結果,用來決定這句話是否正確通順,以數學函數表達:假設給定第N個字,預測第N+1個字正確的機率,語言模型看似博大精深,但是它僅僅指的就是「一個句子的機率」而已!

ChatGPT所使用的模型,稱為「生成型預訓練變換模型3.5(GPT3.5:Generative Pre-trained Transformer 3.5)」,是一個自迴歸語言模型,使用「深度學習(DL:Deep Learning)」讓電腦產生人類聽懂的話,其中「生成型(Generative)」代表它會重新排列組合舊的文字,以生成新的句子;「預訓練(Pre-trained)」代表它必須事先輸入大量資料訓練、以產生語料庫;「變換模型(Transformer)」是GPT3的前幾代模型,事實上,變換模型是由Google大腦團隊在2017年推出的。所以嚴格來說,Google比OpenAI更早研究自然語言處理,OpenAI會的Google也會,只是Google一直不敢使用而已[4]。

很多人以為,微軟獲得GPT3授權、可用做搜尋引擎,就可以打敗Google,這又是另外一個誤解。因為搜尋引擎的「正確性」很重要,而當前這種語言模型產生的結果,錯誤機率並不低,這應該就是Google一直不敢大舉投入使用的原因;當Google看到微軟來勢洶洶,成功利用GPT3發展搜尋引擎New Bing,只好立刻推出自己的聊天機器人Bard,沒想到大家測試後發現回答有錯誤,讓Google母公司Alphabet股價一天內暴跌8%[5]。

為什麼微軟的搜尋引擎Bing答錯了股價大漲,而Google的聊天機器人Bard答錯了股價卻大跌?因為Google是搜尋引擎的領導廠商,當市佔率97%的Google出錯了,使用者會給予很大的負評,而市佔率3%的微軟Bing出錯了,使用者會覺得沒什麼關係,至少它也有答對嘛!現在大家明白,為什麼台積電的3奈米製程要使用舊的鰭式場效電晶體(FinFET),而三星的3奈米卻敢使用新的環繞閘極場效電晶體(GAAFET)了吧!因為身為領導廠商,在科技發展的過程中,通常得更加謹慎小心。

語言模型如何預測一個句子的機率?

這裡我們使用「N元語法模型(N-gram model)」來說明這個概念。假設有一個句子:「元宵燈會即將在台北OO」,兩個空格一般人都會想到應該填入「舉行」,也就是當出現「元宵燈會即將在台北」,電腦能夠預測出在這句話後面出現「舉行」的機率最高。

➩當N=4,代表第i個字與前3個字有關稱為「四元語法(4-gram)」,例如:我們要找一個字讓P(W|在台北)的機率最高,這裡的P(W)代表第一個O機率。

➩假設電腦計算P(舉|在台北)的機率最高則輸出「元宵燈會即將在台北舉」,再繼續尋找下一個字讓P(W|台北舉)的機率最高,這裡的P(W)代表第二個O的機率。

➩假設電腦計算P(行|台北舉)的機率最高,代表下一個字是「行」 ,最後聊天機器人就輸出「元宵燈會即將在台北舉行」。

電腦計算機率的方式是使用「人工神經網路(ANN:Artificial Neural Network)」又稱為「類神經網路」,是一種模仿生物神經網路的結構和功能所產生的數學模型,用於對函式進行評估或近似運算,調整的參數稱為「權重(Weight)」,OpenAI推出的ChatGPT使用「GPT3.5模型」參數高達1,750億個,開始具備大型語言模型的商轉雛形。

ChatGPT的類神經元網路構造原理(圖片來源:http://www.hkpe.net/hkdsepe/human_body/neuron.htm)
ChatGPT的類神經元網路構造原理(圖片來源:http://www.hkpe.net/hkdsepe/human_body/neuron.htm)

大家聽到「人工神經網路」或「類神經網路」,以為是科學家用電腦來模擬人類大腦裡的神經元,其實這又是誤解。所謂「人工神經網路」或「類神經網路」,只是一種數學模型而已,只是因為它長得很像人類大腦裡的神經網路,所以資料科學家稱它為「人工神經網路」或「類神經網路」,事實上它只是一個數學模型,也就是演算法而已,和人類大腦裡的神經網路沒有關係。就好像大家都知道「類火車」就不是「火車」,因此「類神經網路」當然也和「神經網路」不是同一回事!

聊天機器人ChatGPT引起的反智症候群

經由前面的原理說明,大家就能了解,語言模型看似很博大精深,但是它僅僅指的就是「一個句子的機率」而已!電腦根本沒有聽懂你在講什麼,不會思考、更沒有智慧,只是無意識地在計算文字排列組合的機率而已。儘管自然語言處理(NLP)的終極目標,是要「讓電腦聽得懂人類說的話,讓電腦產生人類聽懂的話」,但是目前只能做到讓電腦產生人類聽懂的話而已,因此距離擁有或接近人類智慧的所謂「奇異點」,還差得遠了!

電腦並不理解人類的意圖,我們用的是「生成」模型,而不是「理解」模型[6]。但是由於ChatGPT上線暴紅,讓記者、網紅都想利用這個話題「蹭熱度」,在不了解原理的情況下使用ChatGPT聊天,再引用ChatGPT說的一段話,反過來告訴大家:「ChatGPT擁有或接近人類智慧」,讓人毛骨悚然、嚇到失眠。這些行為看在專家眼裡,才真的會「笑到失眠」,我把這種現象稱為ChatGPT引起的「反智症候群」。

而廠商看到這種情形,也樂得「有意或無意」不出來說明澄清,反正讓愈多人誤會,這個新聞才愈熱,這樣有利於產品的行銷推廣。微軟的搜尋引擎New Bing因此使用度大增,許多人紛紛轉向New Bing的懷抱,讓搜尋引擎龍頭Google有口難辯。

這樣真會讓NewBing打敗Google嗎?我認為完全不會。大家現在轉向使用New Bing主要是嘗鮮,但是當愈來愈多的人發現,ChatGPT常常亂講,甚至爆粗口、開黃腔[7],就會想起「正確性」才是搜尋引擎最重要的功能,畢竟我是來找資料、寫報告的,不是來打屁扯蛋的。不過,網路上的搜尋結果,也有許多是不在意正確性的,例如:哪一間餐廳好吃?情人節該送什麼禮物?這類問題的趣味性大過正確性,因此New Bing會搶走Google的市占率是肯定的,就看Google如何迎戰了!

ChatGPT功能強大,連專家也中招!

有趣的是,不只是外行人中招,其實也有寫程式的專家認為,人工智慧類神經網路運作原理跟人腦是一樣的,所以沒有道理說它們不會有創造力,不會有感情跟幽默感,像DALL-E所產生的圖像,就顯示出強大的創造力。坦白說,看他學歷背景,絕對稱得上是專家,但是他卻把類神經網路這種「數學演算法」當成是人類大腦裡的神經網路、「會思考有感情」,甚至把拼湊圖像計算機率當成是「強大的創造力」。

我朋友是語言學專家[8],針對這個現象,他給了一個妙喻:有些文化村裡,會安排演員扮演古時候的某些工作大師,例如「打鐵匠」。這個「打鐵匠演員」的動作很到位,全神灌注地打鐵,每個遊客經過,都為他打鐵時敲出的火花驚豔不已。但是這個「打鐵匠演員」和「真正的」打鐵匠之間有一個基本的差別:打鐵匠在敲打那塊燒紅的鐵塊時,他心裡是有一個成品的,他每一下敲擊,都在讓這個鐵塊愈來愈接近那個成品;而「打鐵匠演員」則是每一下敲擊,都在「努力讓別人相信他是打鐵匠」。真正的打鐵匠,就是人類心智;打鐵匠演員,就是大型語言模型。

打鐵匠演員不論表演得再怎麼讓人驚豔,他都不是真的知道怎麼打鐵。現在我們看到某些「專業」的遊客(寫程式專家),他本身不是打鐵專業人員(語言學專家),但是他有第一手的「打鐵表演觀賞經驗」,所以他把這些經驗寫成文章說:這些演員演得太好了,都說服我了,將來不需要真正的打鐵匠了,又給那些不曾去文化村裡看表演的人閱讀文章。

這些所謂的生成模型,不論是生成影像或語言,都可以「模仿人類的表現」,但是它沒有想法要表達,它也沒有任何動機。人類會知道「8 + 7 = 15」,是因為人類知道數學是怎麼運作的,所以人類是「因果邏輯驅動」的;語言生成模型回覆「8 + 7 = 15」是因為它覺得「8 + 7 = 」這四個符號之後,接上「15」這兩個符號的機率最高,所以電腦是「數據資料驅動」的,數據資料驅動的思維模式,並不是人類心智主要的運作方式。

我一直在思考,為什麼寫程式專家也中招,以為ChatGPT有感情與幽默感,分不出什麼是會思考、有意識,什麼又是數學演算法。後來我想通了!因為自然語言處理是跨領域的科學,它既然是「語言」模型,就必須了解「語言學」才行,如果只會寫程式是不夠的。就像我這樣腦袋硬梆梆的工程師,「我思故我在」對我們工程師來說是沒有任何意義的,所以「電腦會不會思考,和潛水艇會不會游泳是一樣的」,電腦科學大師的這句話,其實一點哲理都沒有,只表現出我們都是腦袋硬梆梆的工程師而已。

自然語言處理還有哪些實際的用處?

OpenAI公司除了推出聊天機器人ChatGPT,還推出其它模型,在日常生活或職場工作的應用更實際,主要包括下列模型:

➩以文產圖創造藝術:DALL-E模型可以經由輸入名詞讓人工智慧產出精美程度極高的圖像,已經能夠符合大眾的審美,如果把這個功能內建在微軟的Office軟體內,以後我們做簡報就不必自己辛苦的畫圖,可以輸入文字讓Powerpoint替我們產生圖片,再經由我們修改就可以了!是不是很方便呢?

ChatGPT三個月內掀起世界狂潮,引發對AI影響力的關注(資料來源:取自DALL·E by OpenAI IG。)
輸入文字產生圖像,是現有AI已經可以做到的功能(資料來源:取自DALL·E by OpenAI IG。)

➩以圖產文方便搜尋:CLIP模型可以經由輸入照片讓人工智慧產出對應的文字,例如「小狗在雪地裡玩耍」,我們平常出遊拍了許多照片都是依照日期儲存在電腦裡的,忽然有一天想要找某張照片又想不起來是哪一天拍的,這個時候可以直接以文字「小狗在雪地裡玩耍」進行搜尋,就可以找到所有小狗在雪地裡玩耍的照片了!是不是很方便呢?

ChatGPT給予回應的原理,跟人類思考的本質並不相同(資料來源:取自Vladimir Haltakov在GitHub的開源專案,Unsplash)
以圖像產生對應的文字,是另一種可能的AI大量應用機會(資料來源:取自Vladimir Haltakov在GitHub的開源專案,Unsplash)

➩創作音樂創新藝術:MuseNet與Jukebox模型可以依照使用者輸入的音樂,進一步融合不同風格增添樂器產出新音樂,讓音樂家修改成為創新的藝術。

➩撰寫程式減輕負擔:Codex模型可以替軟體工程師撰寫簡單的程式,雖然還不實用但是速度很快,電腦完成後再經由人類修改,可以減輕工作負擔。

我們如何因應生成型人工智慧?

生成型語言模型會重新排列組合舊的文字,生成新的句子,而且產生文章速度極快,但是錯誤機率不低;這代表未來,網路上很容易就充斥著各種錯誤訊息,甚至比正確訊息還多。我們可以想像一下,未來使用Google時會找到一堆文章,但是我們無法判斷哪一篇是專家寫的,哪一篇是人工智慧「拼湊」出來的,屆時又該如何判斷對錯呢?

雖然目前這種「生成型(Generative)」的人工智慧還不成熟,但是隨著這波熱潮,將使全球各大廠商競相投入資源,模型的參數(權重)也愈來愈多,模型功能也愈來愈強,未來肯定會取代許多工作,特別是重複性高的工作,那麼我們該如何因應?

舉例來說,現在一家律師事務所可能要養20個律師,才能處理客戶交辦的工作,未來可能只需要10個律師就夠了!這代表只有10個律師會留下來,另外10個律師就不需要了!你覺得公司會留下懂人工智慧或新科技的律師,還是不懂的呢?

因此,未來世界需要的是「T型人才」,意思是必須對於某一個領域的專長非常深入精通,但是也要能夠廣泛學習其他跨領域知識。這就是為什麼我一直強調「跨領域科技教育」的重要性,這也是「曲博科技教室」成立的目的,還在猶豫什麼,趕快上網學習新科技囉!

網紅錄個影片、隨便說說,就可以吸引500多萬粉絲,我的粉絲連他尾數都不到,真讓我汗顏,但是要講ChatGTP這種專業的題目,卻不先去了解一下它的原理,用講故事的方式講科技,還說ChatGPT可能是傳說中的「奇異點」,難免造成大家錯誤解讀。大家如果想進一步了解ChatGPT正確的觀念,可以參考下面的影片,對了!我只是個說書的,最後兩位教授才是真正的專家,看了他們專業的說明,大家對語言模型就會更有更正確的感覺了!

聊天機器人ChatGPT【上】兩大機器人對談,內容令人毛骨悚然!?可以代寫論文的 Chat GPT是什麼?為何能像人類對談?

聊天機器人ChatGPT【下】擔心機器人超越人類,會像人類一樣思考?實際上,現在的技術離強人工智慧還遠得很!  

台大電機系李宏毅教授的影片:ChatGPT原理剖析(1/3):對ChatGPT的常見誤解

台大資工系陳縕儂教授的影片:OpenAI ChatGPT驚豔眾人的對話互動式AI

資料來源

[1] https://www.bnext.com.tw/article/74152/microsoft-bing-chatbot-ai

[2] https://www.mirrormedia.mg/external/setn_1256604/

[3] https://www.gvm.com.tw/article/97451

[4]https://www.techbang.com/posts/104181-why-google-hesitated-to-release-chatgpt-competitors-alphabet

[5] https://www.businesstoday.com.tw/article/category/183025/post/202302090003/

[6] https://technews.tw/2023/02/20/bing-chatgpt-bad-behavior/

[7]https://www.bnext.com.tw/article/73277/chatgpt-is-just-a-milestone-but-we-still-far-away-from-strong-ai

[8] https://www.facebook.com/droidtown/


作者為台大電機博士,知識力專家社群創辦人

責任編輯/周岐原

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章