2022年的世界雖然因為烏俄戰爭與疫情重啟而顯為動盪不安,但筆者認為11月30日那天OpenAI對話機器人ChatGPT的橫空出世,卻應該被視為影響更為深遠的科技大事。因為在那之前,只有如鋼鐵人那樣的科幻電影情節中,才會有個機器人彷彿可以幾乎聽懂任何問題來回應主角的提問,而如今短短兩個月過去,全世界已經有超過一億人註冊成為ChatGPT的用戶,想要展開屬於自己與AI的神奇之旅。
可以威脅到Google的AI機器人
在跨文化與語言的使用者中,前一次能有類似如此快速征服人心的體驗恐怕只能屬於在1997年建立的Google搜尋引擎:只要在搜尋框中鍵入幾個關鍵字就能在茫茫網海中找到所想要的網頁。筆者記得自己第一次看到那只有個小小文字框的Google首頁時,心中唯一的想法是「這傢伙是在開玩笑吧?」但是現在這個小小的框已經是我們看見整個網路世界最常開啟進入的任意門。
而這次的ChatGPT已經不是只有找到資料,還可以將這些搜尋到的資料作通順的整理,用接近人類的語言文字表達出來。事實上,她不只能回答有明確答案的問題,也可以就開放式的問題提供意見,又或是編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,幾乎只要能透過文字表達的幾乎無所不能(好吧,他的閒聊功能的確有些無趣)。這樣的文字處理能力讓一些本來可能需要花幾個小時的資料整理工作幾乎在一瞬間就可以有個相當不錯的初稿。難怪這次連Google都將ChatGPT列為紅色警戒,擔心過去20多年來獨霸的網路廣告業務很快就會受到影響[1],加快其引入AI服務的規劃[2]。筆者相信Goggle與Miscroft/OpenAI的這場AI大戰一定會非常精彩,也標示著網路新世代的來到。
但是以上將搜尋引擎與對話機器人相對比的方式,並不只是商業市場的競爭或科技能力的展現,其實很核心的連結到我們對於知識的理解與應用層面。因此本文盡量不會再重複太多網路上已經有的從技術、商業、教育、社會等面向討論ChatGPT的內容,而是會先從人類自然語言的獨特性開始,說明ChatGPT成功的原因其實與Google類似。並且從字詞、訊息、意見、知識與洞見這五層的「語言理解」架構來看ChatGPT所產生的文字與使用者的心理互動,說明在哪些方面將對人類未來生活有所影響以及可能的注意方向。
從特定功能到通用的AI:自然語言
也許有人會問,為什麼以上與ChatGPT的對比不是用2016年AlphaGo戰勝人類圍棋冠軍的事件來比較?的確,那當然也是件足以載入史冊重要的大事。但是如同目前絕大多數AI的應用,AlphaGo畢竟僅限於圍棋這個特定範圍,如果對圍棋沒有興趣接觸的人就不見得受到影響。事實上,稍微了解AI技術的人也知道,對於這種「範圍可以界定清楚並有可驗證之最佳解方的任務」,AI贏過人類只是時間早晚而已,恐怕不再會有例外。
但是ChatGPT這個對話式的AI模型之所以能有這樣的影響力,主要是因為她比以前所有的AI模型更有效的掌握自然語言(文字)在表達方式與其相關內容的平衡。人類文化中,語言文字有個非常重要的特色:他們一定都是由有限的基本單位(如音節、文字或字母)所組成,只需有些原則性的連接方式(也就文法),就可以類似積木一般豐富地表達幾乎人類思想範圍內的各種事物或感受,是最接近人類大腦思想的表徵(representation)方式,也是其他動物所沒有的[3]。雖然生活中仍有些是我們難以用語言文字所描述的情緒或是鍵,但是透過語言文字巧妙的運用,還是可以有引發「共感」的能力 (例如「大珠小珠落玉盤」這種類比方式),將本來難以言喻的感受傳達給遙遠或未來的另一位讀者體會。
從這個角度我們就能明白為何Google的搜尋與ChatGPT對話機器人的成功其實有相當的類似性:因為他們非常好的掌握到人類語言文字表達的習慣,計算出最相關的文字資料,並將之排序或整合,令人幾乎不必跨越任何技術門檻就能直接享受到其成果。差別只是前者將目標訂在找到最相關的網頁,而後者的目標是產生最相關的文字組合。而文字符號本身幾乎可以表徵人類思想的所有面向,因此也就輕易跨越了領域的疆界,創造了幾乎無限可能的應用想像。所以可以簡單地說,掌握了語言工具就掌握了價值取捨方式,也自然創造跨領域的應用範圍。所以筆者認為這個語言的共通性才是兩者成功的核心要素。[4]
結合流利程度與回答結構的訓練方式
但是以上的說明仍須要回答一個更核心的問題,ChatGPT比起之前就出現過的對話機器人(如Google的LaMDA或微軟的小冰等),又有哪些特別的能耐而可以造成這樣的令人驚豔的成果?這部分涉及到AI對於自然語言處理的技術內涵,但我們可以簡單的從三大部分來說明[5]。
1. 大型語言模型:首先ChatGPT是源自GPT-3的大型語言模型(Large Language Model, LLM)而作更精緻訓練與應用。也就是說它是透過數千億字的海量資料來作訓練,可以調整的參數高達1750億個。用這些參數來模擬每個字與前後文其他字的關係。最後再根據提問者的問題或之前的回覆來計算對應的各種文字組合機率,將整體機率最高的結果作為「答案」來提供[6]。
由於GPT-3訓練時所用的文字資料非常多,所以它可以回答的相當流利不呆板,彷彿是真的有個人類在背後回應。事實上,如果使用者直接按「重新產生」鍵就會看到其他的「回答」,說不定覺得更好或更差。這就如同使用google搜尋都會得到許多網址類似,第一筆是它計算出最可能相關的,但是我們要的資訊可能是在後面幾筆或第二頁以後才找到。因此可知這樣AI其實無法保證這些內容是正確或適當的,只能說是根據其訓練資料而計算出可能的文字組合方式,提供使用者參考。但是這樣的技術其實也早就被過往公開發表過的對話機器人所採用,也都有一定的成果,只是不同團隊所著重的回應方式不同。
2. 人工回饋的強化式學習:相較於之前的文字生成,ChatGPT成功更重要的因素,應該是透過人工標記員的反饋調教。也就是說,開發團隊(OpenAI)使用數十位人工標記員來給它的回答作評分[7],讓ChatGPT的文字生成模型再透過一種稱為強化式學習的方式來強迫自己將本來機率較高(但不一定符合人類論述邏輯或可能有許多偏見或錯誤的結果)的回答調整成較低的機率,直到輸出的結果是符合人類標記員所認可的標準。這種稱作「人工回饋的強化式學習」(Reinforcement Learning from Human Feedback,RLHF)[8] 的確讓ChatGPT輸出的文字免除許多其他對話機器人因為訓練資料中所包含的錯誤、偏見或不適當回應方式降低許多。
事實上,使用過ChatGPT的人會發現,同類型的問題往往也會得到類似模板的回應架構,使其內容看來更有說服力或至少有個正式文章模樣。如果刻意加入一些敏感字詞,如自殺、嚴重疾病、種族歧視等等,ChatGPT可能就會停下來說無法提供更多意見,建議詢問相關的專家或求助專業領域的工作者。雖然這讓許多獵奇的使用者可能覺得無趣,但至少減少不必要的困擾。因此我們可以了解,若不是最後有這些事先訓練的人工標記員在把關輸出的結果(等於是在教AI如何說話),我們所看到的對話機器人很可能後來會語無倫次的輸出一大批帶有明顯偏見的文字,降低大家對它的信任。
3. 使用當下的即時訓練:除了以上兩個主要的特色以外,筆者認為ChatGPT所引入了第三項特色技術又更幫助使用者更願意與之互動,也就是使用一次性學習(One-Shot Learning)的方式,讓AI可以根據使用者前次的文字即時調整回應訊息,讓同一串的對話可以彷彿緊扣著主題。畢竟我們可以想像,不管這樣的AI事先經過多少這樣的後天訓練也不可能符合所有的使用者習慣的說表達方式,所以這樣的設計就讓AI會對當時的對話有所學習而體貼使用者的習慣或預期,提升使用上的好感度。但是這個功能的問題在於,這也代表使用者可以間接引誘ChatGPT來提供不實或錯誤的回應。例如有朋友詢問2+5等於多少,GPT回答是7,但是他故意說老婆認為這個答案不對,應該是12,GPT就馬上應和者說你說得對而調整答案……。
透過以上簡單的說明,ChatGPT這類AI機器人與人類說話表意最大不同之處在於,它並非「有意識」地提供「答案」,而只是某些文字組合與其機率。這也是為什麼它可能申論題回答得不錯,但數學題往往很差,因為他把數字當成文字在處理,尋找最可能出現的數字答案而非實際做計算[9]。因此,GPT所提供的文字組合是否能適當的「回應到外在世界」或是是否前後一致且精密的邏輯正確,其實完全無法排除純屬巧合的味道,也是為何之前擁有許多AI技術的大型公司遲遲不太敢推出類似功能的產品[10],簡單來說,就是怕被笑。但是筆者想要說明的是,即使這樣也足以帶來很大的衝擊,因為人類接受訊息並不只是一板一眼的回應,而是還帶有更多「心理層面」的活動。筆者認為這才是讓我們評估這類AI對話機器人時所需要自覺與評估的重點。
語言文字不只是積木:語言建構的心理層次
如同前面所提及的積木比喻,這些大量的文字如同積木一般被AI重新組合,看似創造出不同精美的「作品」(也就是我們看到的回答)。但其實每一個「作品」對它來說都只有機率高低的不同,並不代表能前後邏輯一致的對應外在真實世界,甚至也無法保證在不應該犯錯的最基本運算或正確知識上能夠安全通過[11],也沒有任何價值評斷的差異。而所謂的機率計算,則是透過這些現存的數萬億的文字訓練資料所提取出來:簡而言之,如果所提供的資料大部分是網路用語,那這類AI生成的文字很大部分可能會與網路文化的語言類似;如果大部分是某些專業知識領域的文字,它也會更好的處理那些領域的問題。當然,這個問題反過來也成立,也就是說對於某些比較沒有放在其訓練資料的內容,回答起來就會顯得隔靴搔癢,徒有某種樣子而無實質內涵。
因此我們在更深入思想這些語言文字的生成與理解時,就會逐漸看見以下的幾個不同層次的概念需要釐清,組成我們對於現有知識結構的理解[12]:字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight)。以下將簡略說明,為何這類AI機器人大部分是在提供意見的層次,夾雜許多不見得能完全相信但也可能的確有用處的訊息。其中當然有一部份因為可以回應真實世界而能夠成為某種知識,但很難說因此有任何洞見來幫助使用者面對困難的問題。其中最主要的原因是對使用者而言是否在心理層面感到有說服力,而這個說服力的感受很多時候卻不一定來自於真實世界的驗證而是字詞表達的方式。這應該會是未來AI發展與人類互動更值得注意的方向[13]。
1. 字詞:如果把語言文字當成積木,它最小的單位如字詞,本身其實只是一種符號,通常是用來表達另一些概念對象,具體的例如像蘋果、飛機、貓狗等等,或是抽象的如快樂、法律、貧窮等等。從現代語言學的角度來看,某個特定的符號和其所特定所指的概念對象之間的聯繫不是絕對的,而是有約定俗成的彈性。例如我們眼強那顆紅色拳頭大的水果,中文稱作蘋果,英文稱作Apple或是日文的りんご,其實都沒有關係。唯一有關係的是使用這個字詞的人是否是在相關的文化環境中使用,以至於可以與其他人正確的溝通,不會誤會彼此的意思。
2. 信息:因此我們會發現只有單字詞是無法正確代表語言,還必須放在正確的前後文(context)環境中,才有可能開始發揮效果,描述某些外在事物或內心感受或理念。而前述的大型語言模型也就是根據這個前後文來計算出的複雜機率關係:利用前面出現的幾十個字詞推算後面將會出現的字詞,有助於形成一個通順的文句,例如「天空看起來變得陰暗了」。這樣的語言表達也可以說在某個程度上描寫出一段不同事物(天空、看起來、變得、陰暗)彼此之間的關係,開始指涉某些事件發生的過程或內涵。這樣的訊息是帶有描述成分,也當然就可能成為可以評價正確性或合適性與否的內容。
3. 意見:但是以上的信息本身並不見得能影響對話的對象,因為聽的人可能只是覺得他在自言自語,畢竟類似的信息本身就充滿在我們四周。但是我們通常會選擇考慮聽從有根據、有專業或至少經驗上看來可靠的意見文字來做判斷。那樣的意見當然不會只是一個規範性的命令,通常也會包括相關的理由與說明,形塑出一個邏輯架構,讓人覺得可以考慮信任。舉例來說,「天空看起來變得陰暗了,應該很快會下雨,建議提早結束回家。」這句話就是一個意見,帶有價值評斷或規範性的期待,使聽者必須要回應接受與否。
筆者認為目前的AI對話機器人所提供的文字訊息主要是屬於這樣的「意見」層次,以至於會讓我們覺得好像有那麼針對我們的提問而有值得參考(或至少需要決定如何否決)的可能性。能做到這樣,AI就不只是在搜尋相關的網路文字信息,還要有意義有組織的去蕪存菁並重新組合,如同前面所說的技術層面的充分應用。從心理層面來說,當我們知道AI能夠對我們的提問給出有結構有組織的意見來回覆,至少看起來好像是那麼回事,我們就容易在心理上投射出應該可以信任考慮其意見的感覺,畢竟這樣會幫我們節省一些做決策的時間。如果使用者又真的期待機器人給出有用的參考文字,但本身的分辨能力不足,就更容易看重這些對話的價值而無法質疑。例如新聞的寫作與制式報表的製作都可能被AI文章淹沒,也因此產生更多假新聞[14]。
4. 知識:雖然意見的文字本身可能是通順流暢且合理的,但是不一定能形成有效的知識。在這裡筆者並不是要陷入哲學上對於「知識論」(Epistemology)的探討論證[15],只是先以一般人基本的概念來說,真正的知識大致上需要一種與外在世界相符(有經驗主義的基礎)且有內在邏輯理由(有理性主義的架構)的整合性概念。這部分就會牽涉到實際上這些意見是否真的可行的問題,或是如果我不照著做,是否有所損失?而非只是「看起來人模人樣」的感覺。以此而論,ChatGPT有部分的功能,例如寫程式、找程式的錯誤、找尋過往的資料、整理現存的資訊等等功能的確達得到這類層次而成為可以信賴的知識。雖然錯誤仍然會有,但因為是包在一個論述架構中,所以除非對這方面相當熟悉的使用者才可能分辨。但是反過來說,如果這樣的「知識」其實錯誤的引導到外界的事件,就可能帶來嚴重的影響,例如醫學相關的應用[16]。
因此,我們發現容易混淆的地方就在這裡:如果提問討論的主題並沒有必然的方式對應到外在世界(例如回答的內容是可以透過抽象的名詞來聯繫的概念),或是表述方式不一定要有精密的邏輯結構 (例如寫詩詞、小說、編故事等等),AI機器人的回覆文字雖然只是意見的層次,但是卻很容易看起來像是可以參考的知識內容。畢竟如果使用者僅僅需要AI來把對人類很抽象的文字來做某種連結(例如法律或商管領域的申論題),又無法即時驗證確認這些結論是否對映真實的事件或實際行為,我們會覺得似乎無法排除其論述的有效性,因而在心理層面受到類似錨定效應的影響。這也難怪當ChatGPT出現而被應用於學生的考試時,對教育界帶來相當大的挑戰,甚至可能要顛覆過往人文社會領域傳統特別重視文字論述的學習方式[17]。
5. 洞見:筆者這裡的洞見是指,這些文字組成不僅僅帶有知識的內容可以被檢驗,也提出一些特殊(或以前很少被聽到或重視的)觀點,而這些觀點是帶有可預測性或至少有更完整可延伸的解釋能力,能夠讓人相信這是未來可以被驗證或至少相當有順服力的理解過往沒有被充分了解過的問題。這部分是目前AI機器人幾乎做不到的,但這個表達當然也要更具體的看是哪一種問題或是哪些回覆方式才能確認。但是就筆者印象所及,網路上目前為止所提出的ChatGPT實測結果,都只是驚嘆它整理出一些我們本來大約就知道的內容,而沒有精準高明到認為超過人類一般的能力以外。其實如果我們了解AI目前的訓練方式,就會知道這一點對於目前的AI對話機器人很可能是先天的限制,永遠都無法像AlphaGo那樣超越人類。
這背後的原因也很簡單。因為AI只是從訓練的資料中模擬可能的結果,所以如果這個資料來源是自然科學中可以明確知道結果(如天氣預測)或可以用數學所定義的(例如圍棋比賽)目標,那AI的應用的確就可能超越人類而更接近這個客觀目標。但是如果這些訓練資料是來自於人類社會,標準是由人類自行所定義的(否則就是不像人類),那AI最多只能模擬人類的行為,準確性也就不可能超越人類多數的標準,只能說可以加快速度處理更大量的資料而節省時間。
結論:所真正該擔心的
ChatGPT上線不過兩個月,全球使用的人數已經超過一億,遠超過以往任何的網路工具,顯示這個AI應用的大爆發已經來臨且勢不可擋。觀察相關的報導可以發現,人們已經從起初的好奇,擔心學生的報告或論文抄襲無法抓到,到甚至懷疑人文社會領域的學科可能因此更為式微,白領工作被取代。目前連寫程式的資工人自己都開始懷疑繼續努力的必要性(因為ChatGTP的功能已經相當齊全優秀,介面又如此方便,一般技術人員已經難以再超越)[18],顯示絕大多數人還沒有準備好如何回應在相關領域的可能影響。
經過筆者以上五種層次的語言表達來說的話,可知我們需要做更仔細的區分。目前的AI對話機器人(如ChatGPT)已經算是能靈活提供意見的層次,但只有少數領域能到達實用知識的範圍。因此筆者以為不同的領域所回應的方式也應該要有所不同。例如對於意見層次的回應,就需要評估是否是用來加快速度,節省備稿時間的功能。若是這樣應用,就不會太相信AI所提供的結果,而是還會做相關的修飾與調整,應該積極去應用。例如房仲業的確還蠻合適大量應用AI的對話機器人,也必然產生在工作或就業上的排擠效應[19]。
不過在傳統上非常看重文字精確表達或概念連結的領域,那這種評估方式未來勢必要被改變,因為這類AI產生的文字就算到不了頂尖,但也大致是平均水準,影響至少一半以上的人。這時候唯一能做的就是提高標準,讓學生或使用者提供知識等級(而非只是意見等級)的文字,並要有具體的洞見來顯示與其他人不同。這時即便參考GPT的回答,也要能準確的定義其中的概念,連結真實世界的狀況或其他非文字類的資訊,並且能多方面回答老師或客戶更多面向的質疑,來確保自己真的能掌握相關的概念主體,而非僅用抽象的文字堆砌來搪塞。
但是要達到這個目的,在使用者心理上就不只是單單接受AI提供的意見,反而要多方質疑,探究其根源與前後邏輯的一致性,減少因為資料偏見而有的誤導。這就如同我們使用Google搜尋資料一樣,不能只看第一個網站介紹的內容,還要多看其他的網站來做資料的綜合比較。而在AI對話機器人的時代,類似蘇格拉底那樣的質疑與對話方式來釐清思路就顯得更為重要。
但是對大多數人來說,思辯探究本身是相當費心力的,他們寧願花更多時間享受生活或應用經歷於其他形式的創作或經歷,這些人就會形成對這類AI機器人的過度倚賴。但是相較起來,可以善用AI作深度思考的人,卻可能在生活中其他的面向(例如開車導航、社群媒體交友或投資理財)放棄仔細選擇的習慣,交由另一種AI來代替他決定。當我們社會透過AI多元的應用而將分工方式重新洗牌後,我們可能都會更難完整的認識自己,但是也會因此在某些方面會更想擺脫對AI或虛擬世界的倚賴(如同現代社會中越來越多人喜歡手作或健身等等反動發展),找回在實際生活中缺乏現實感。我們等於是在後現代社會被解構的支離破碎後,靠AI重新建構對自我的認識與意義的追尋[20]。
但是在ChatGPT所開啟的AI跨域應用浪潮洗捲之後,我們社會一定會更注重模擬外表的逼真呈現而不見得是效果更好(後者需要投入更多思辨與創意來擺脫AI可及的一般程度)。那時我們是否也有足夠的配套,預備好接受並且足以分辨這種不願意完全受到AI支配而更為「真實」的人類呢?
註釋:
[1] 廖綉玉,〈ChatGPT異軍突起、廣告市占率大幅下滑 Google搜尋引擎龍頭地位告急?〉,風傳媒(1/28/2023)。
[2] 筆者撰寫這篇文章的時候,Google發布新聞已經正在最後測試類似的對話機器人Bard,可結合最新的網路資訊與更好的回應模式來強化相關的搜尋。〈與ChatGPT一較高下 Google推AI聊天機器人Bard〉,鉅亨網 (2/7/2023)。
[3] 雖然我們都知道許多動物可以透過聲音、氣味或運動方式來傳達簡單的訊息,但那些都完全沒有辦法重新組成本來所指涉的物體/事件以外的意義,也就是沒有多元使用上的彈性,與人類的語言表達能力有本質上的鉅大差別。
[4] 關於比較搜尋引擎和語言模型的應用,以及Google與Microsoft之間可能的競爭,筆者覺得以下這篇文章寫得蠻好的,也可以因此更多了解這些技術的特性與侷限,提供有興趣的讀者參考。〈微軟vsGoogle:語言模型會不會壓倒搜尋引擎?〉,36氪(2/1/2023) 。
[5] 有一些比較偏向科普類的技術說明文章,可參考例如:〈ChatGPT 究竟如何煉成?台大教授李宏毅提可能的訓練步驟〉,Inside (12/08/2022)。〈深入淺出,解析ChatGPT背後的工作原理〉,幫趣 (1/6/2023)。
[6] 關於AI如何處理人類語言的工作,統稱為「自然語言處理」(Natural Language Processing),可以說是當前最富挑戰性也最有未來性的AI應用。對這主題有興趣做一些初淺而非技術面深入了解的讀者,可以參考筆者所曾經拍攝的一段影片,「自然語言處理簡介」,屬於國科會人文社會科學研究中心所支持拍攝的一系列「人文社會AI導論課程」的第7集。
[7] 關於人工配合訓練ChatGPT的部分,可以參考以下稍微詳細一些的說明:〈ChatGPT 為何能像人類對談?台大資工陳縕儂教授揭 AI 模型背後的訓練原理〉,Inside (12/26/2022)。
[8] 李建興,〈OpenAI改進GPT-3使其更能聽懂人類指示,並減少輸出有毒內容〉,iThome (1/28/2022)。
[9]〈ChatGPT多聰明?實測能通過美名校商學院、法學院考試〉,經濟日報 (1/29/2023)。
[10] 例如這篇報導所說,〈科技巨頭小心翼翼的對待AI,結果ChatGPT突然衝了出來,逼大公司做出反應〉,36氪(2/3/2023) 。
[11] 舉例而言,筆者有朋友詢問某個法律相關的問題,GPT所給出看似不錯的回應中其實號稱來源是某個法律條文,但那卻是它自己所創造,其實從不存在的文字。這與簡單的數學題一樣,可以說是人類無法原諒的低級錯誤。
[12] 一般的認知心理學會以Miller(1973)所建議的五個層次來組成語言,分別是語音、語法、詞彙或語意、概念、信念。但在這裡筆者更著重於將最後一個信念(belief)細分為知識與洞見,代表不同強度的可信賴性,也是AI機器人比較無法呈現的部分。
[13] 關於語言與心理的關係,一般是歸於認知心理學(Cognitive Psychology)的範圍,對此有興趣的讀者可參考:Marl H. Ashcraft,《認知心理學》(陳學志譯,學富文化2004)
[14]〈NewsGuarad團隊發布測試報告:提防ChatGPT成為錯誤資訊超級傳播者〉,台灣適時查核中心 (2/05/2023)。
[15] 知識論是西方哲學重要的一個分支,重點在於如何確認所知道的內容是真實可靠的。在17-18世紀的時候有很多重要的哲學家參與相關的討論,大抵上可分為歐陸的理性主義傳統與英倫三島的經驗主義傳統,而後由康德做了相當好的整合與推廣界定。有興趣的讀者可以從維基百科參考一些相關資料。
[16] 例如以下報導:〈或危及人類安全? AI聊天機器人編造的醫學論文摘要 科學家難辨真假〉,Bastille Post (1/23/2023)。
[17] 例如以下這篇評論:〈人工智慧降臨,人文科學已死?〉,36氪(12/30/2022)。
[18] 可以參考以下的報導:〈ChatGPT 平均智商約 83,但讓NLP工程師覺得工作毫無意義〉,INSIDE (12/09/2022)。〈用AI取代菜鳥設計師寫程式,也許比你預期的更快!AlphaCode已與一般程式設計師能力相當〉,T客邦(12/15/2022)。
[19] 〈美國房仲愛上 ChatGPT:原本要花1小時寫的文案現在只要 5 秒,還能幫客戶算還款額度〉,T客邦(1/30/2023)。引用網址:
[20] 可參考,〈王道維觀點:電腦的深度學習,人性的深刻困局〉,風傳媒 (2/24/2018)。
*作者為國立清華大學物理系教授,國立清華大學諮商中心主任,國立清華大學人文社會AI應用與發展研究中心副主任。