張經緯觀點:AlphaGo人機大戰告訴我們哪些事?

2016-03-17 06:10

? 人氣

南韓棋王李世石與Google開發的AlphaGo進行所謂的「人機世紀大戰」(圖/美聯社)

南韓棋王李世石與Google開發的AlphaGo進行所謂的「人機世紀大戰」(圖/美聯社)

3月15日最後AlphaGo以4勝1負的比數擊敗李世乭,眾人期待的結果分曉,李世乭一改賽前的自信,心悅誠服的向電腦圍棋AlphaGo認輸。Google DeepMind總裁德米斯·哈薩比斯(Demis Hassabis)高興之餘,還是稱讚李世乭展現高度棋藝智慧,謙稱圍棋程式再厲害還是需要人類幫忙下棋,連小孩子都比不上。

透過<Google新聞> 追蹤風傳媒

自主學習及人工智慧

電腦圍棋AlphaGo除了從3000萬份棋譜學習歷史棋步之外,還經過與真人實戰及電腦間實戰訓練,相當受了1000年人類的下棋訓練。平常每盤圍棋要花半小時到一小時下完,人類不眠不休的下棋,一天最多下50場,扣掉每天必須的作息,精力及集中力一天能應付10盤棋就不錯了。AlphaGo的電腦圍棋每天可以使用兩台電腦彼此撕殺300盤,每天的學習量就是一般人的30倍。機器持續的快速運轉,人機學習連續次數會越離越遠。

電腦人工智慧從資料及學習而來,機器不斷練習並經過實戰結果,不斷修正並強化學習得來的智慧。加上快速的搜尋及分析能力,勝過體力及集中力會逐漸遞減的人類,並非不可能。

人類及電腦學習都需要有背景資料,從80年代之後使用電腦資料處理產生了大量記錄,如何轉化資料為資訊,再淬取相關資訊作為決策依據,會影響各種人類活動的效能及效用。資料的轉化相當於我們常說的『言之有理』,產生的資訊相當『言之有據』,正確的決策相當『言之有物』。

AlphaGo的自主學習及人工智慧有些特別,它用非監督(unsupervised)方式進行深度學習(deep learning),配合深度神經網路,能進行機器學習。在90年代初由加拿大多倫多大學(University of Toronto)的佈雷登·費雷(Brendan Frey)及傑佛瑞·辛頓(Geoffrey Hinton)發展出睡眠喚醒演算法(Wake-sleep algorithm)在1995年發表在科學雜誌(Science),並將之運用於分析不正常基因及破解DNA中的剪接密碼,也在2008及2010年發表於自然雜誌(Nature)。非監督方法不需要將資料加上標籤,運演算法會自動從資料中找出隱藏的資料結構。Google公司2011年在Google Brain計劃,由Google公認最聰明的傑夫·迪恩Jeff Dean及斯坦福的吳恩達(Andrew Y. Ng)教授做了一個Google Cat的實驗,從YouTube裡面1000萬個視頻中由 16,000個電腦CPU自動判讀畫面,在沒有任何人為分類下,程式自我訓練判讀認出人臉(81.7%準確),人體(76.7)及貓(74.8%)來。另外一位法國裔紐約大學的燕樂存(Yann LeCun)教授,也發展出誤差反向傳播(Backpropagation)運演算法,辨識郵件手寫郵遞區號的深層學習方法。現在辛頓已經被Google挖角,燕樂存被Facebook挖角,吳恩達在2014加入百度,负责百度研究院Baidu Brain计划的工作。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章