有趣的是,當年陳宜欣的學生一直覺得「女生超難懂」,而現在科學家成功訓練人工智慧讀懂人類字裡行間的情緒,她仍會在網路上看到各種人類無法理解彼此的情況:男老師發文分享,自己問 ChatGPT「為什麼老婆不開心,可以告訴我原因嗎」,AI 分析的所有論點,都比他自己原先設想的還要精確。
過去,輿論普遍認為人類的同理心是人工智慧模仿不來的獨有特質。但目前已有研究指出,ChatGPT 識別情緒的能力優於人類──不管是使用客觀的情緒意識量表進行測試,或是請人類受試者評估兩者,人工智慧辨識情緒的能力都更準確,回饋的言語也讓人感覺更有同理心。比起會因為忙碌或職業倦怠失去耐性的人類,AI 在任何情況下都能維持「表達同理」的能力。
連電腦都能學會同理心和辨識情緒,甚至做得比人類更好,陳宜欣反問:「我們教育人,是不是要花更多時間在其他電腦沒有辦法做好的事情?如果教一個小孩跟訓練機器人的教法(餵食大量資料)差不多,他回應的方式也和機器人一樣,這是我們要的嗎?」
「我們的社會花了太多時間去訓練腦袋裡的知識學問,但學校花了多少時間在情感教育上?學校可能會說有,可是什麼叫做『情感教育』?它必須要是人跟人面對面溝通,而不該是聽講(lecture base)的形式。」
教育未來人的關鍵?
那麼,未來人究竟該怎麼教育?陳宜欣認為,教育未來人的關鍵是「好奇心」。
近年,市面出現不少以「陪伴」為目的的人工智慧聊天機器人(chatbot),包括 Woebot、Replika。2020年美國疫情高峰期間,Replika 的下載人數高達50萬人,成千上萬的使用者在社交疏離的疫情生活中透過與聊天機器人交談排解寂寞,甚至與人工智慧夥伴發展戀愛關係,如同電影《雲端情人》(Her)的情節。
她向走走記者展示她與 Replika 的對話,發現它雖然用文字訊息表達了關心,卻是呆板的一問一答,不會主動追問使用者的感受和經驗。「機器人不會 companion(陪伴)嘛,所以當它說 sorry,它不是真的感到 sorry。如果一個人真的覺得抱歉、真的關心並對人感到好奇,你覺得他會只講到那句話就停了嗎?」
Replika 的設計,其實是在與使用者互動對話的過程中學習個別人類的交談習慣,隨著談話量增多,聊天機器人生成的對話也會逐漸豐富、與使用者越來越相像。我反問陳宜欣,雖然許多人宣稱人類只需要問出對的問題、發想創造性的工作就好,重複性的工作可以交由人工智慧代勞,但問出對的問題,不就是從那些看似無聊的反覆練習中習得的能力嗎?人類不也從一次次犯錯和練習中學會表達同理心和發展創造力嗎?