人類才不會被AI取代!《大腦如何精準學習》揭大腦6大優點:目前的人工智慧永遠學不來

2020-10-12 12:38

? 人氣

人腦才不會被人工智慧打敗,因為這六個技能是目前的人工智慧學都學不來的!(圖/取自總統府@flickr)

人腦才不會被人工智慧打敗,因為這六個技能是目前的人工智慧學都學不來的!(圖/取自總統府@flickr)

最近人工智慧的進步很可能讓很多人覺得電腦科學家終於找到超越人類學習和智慧的方法了,有些人甚至宣稱機器就要超過我們了。這是不對的訊息,事實上,大部分的認知科學家雖然很欣賞最近類神經網路的進步,但是都很清楚機器的能力還是很有限。事實上,大部分的類神經網路能夠做的,其實是我們的大腦在幾十分之一秒的短暫時間內無意識在做的事,例如接受一個影像,辨識它,把它分類,得出它的意義!1但是我們的大腦做的比這個多得多,大腦能夠有意識的探索影像,很仔細的,花好幾秒,一點一點的去檢視它。它能形成符號表徵並用語言方式跟別人分享這個影像是什麼。

透過<Google新聞> 追蹤風傳媒

這個很慢、推理的、是符號的運作特性,是人類大腦才有的特權(至少到目前為止,只有人類可以做到),目前機器學習的演算法在這方面還差得遠,雖然機器翻譯和邏輯推理一直在進步,但是類神經網路是把每一個問題當作自動分類的問題,然後把它們當作同一個層次的東西去學習,對拿著榔頭(hammer)的人來說,每個東西看起來就像釘子!但是我們的大腦彈性比這大得多,它很快就把資訊放在第一位,不會陷入自己的偏見,只要能夠都盡量抽取有普遍性、邏輯性和一目了然、可以明確說出的原則。

人工智慧缺了什麼?

去問人工智慧缺了什麼,等於指出我們人類學習的獨特的地方。下面是一個短的、尚未完整的人腦功能,這些功能連嬰兒都擁有,但是最先進的人工智慧系統卻沒有。

學習抽象概念。大部分的類神經網路只能抓住訊息,處理最前面的粗淺階段—即在五分之一秒的時間分解視覺皮質的影像。深度學習演算法其實沒有像有些人宣稱的那麼深。根據深度學習演算法的發明人之一,約書亞.班吉歐(Yoshua Bengio)說,他們只是想學初淺的統計規則而已,不是高層次的抽象概念。例如,要辨識一個物體,他們通常仰賴影像表面一些初淺的特質,例如某一個特定顏色或形狀,改變這些細節,他們的表現就垮台了:現代的卷積神經網路無法辨識一個物體的結構本質,他們無法辨識椅子就是椅子,不管它有四條腿或是只有一條腿,不管它是玻璃、金屬或充氣塑膠做的。這個只注意表面特質的傾向,使這個神經網路容易犯下大量的錯誤,現在有很多的文獻在談如何騙過神經網路:把一根香蕉改變幾個像素,或放一些別的東西在上面,這個神經網路就以為它是一個烤麵包機。

沒錯,假如你閃一張圖片給一個人看,快到只有一秒的幾分之一,他有時也會犯機器的這種錯誤,把狗看成貓。然而,只要給人類多一點時間,他們馬上會改正他們的錯誤。我們不像電腦,我們擁有懷疑自己的能力,而且可以重新聚焦到影像不符合我們第一印象的地方,這個第二次分析是有意識的,而且是智慧的,這個需要推理和抽象的能力。類神經網路忽略了一個重點:人類學習並不只是設立一個型態辨識(pattern–recognition)的濾網,而是形成一個抽象的外面世界模式,例如學習閱讀時,我們腦海裡有每一個字母的抽象概念,這使我們可以辨認出任何字體(譯註:如英文的花體字),甚至創造出新的字體(譯註:過去在美國改考卷時,發現同一個字母,學生寫出來的方式千奇百怪,人眼看幾次以後就不會再讀錯,機器可能就要費大工夫)如下一頁上方各式A的寫法。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章