《自駕貨櫃車跨州送貨的里程碑》:
自駕車最終極的目標是連方向盤都沒有。這一天就要來臨了,而我們準備好了嗎 ? 要回答這個問題,就要先了解汽車為何能夠自駕。
汽車為何能夠自駕?
自駕涵蓋了三個最重要的科技:1. 偵測 2. 辨識 3. 決策。偵測需要先進的感應科技,辨識需要大量資料長期訓練,決策需要周全的演算法。這三個步驟唇齒相依,任何一個環節出了差錯,都會造成不可收拾的悲劇。
現在的偵測科技已經非常成熟,但是辨識和決策仍舊只能「照劇本演出」。如果劇本出錯,決策就必然錯誤。這個劇本依靠的完全是機器學習。
AI 不需要駕照卻可以上路
電腦教過的就會,沒教過的就一定不會
電腦很聰明也很笨,只要教過的一定會; 沒有教過的就一定不會。它不會自行判斷,也不懂舉一反三。沒錯,電腦反應比我們快很多,但問題不在於反應快慢,而是在如何反應,或是知不知道該反應。電腦缺乏的是「認知」的能力。認知沒有公式可以規範,它完全來自於生活上的經驗。所以電腦辨識的成熟度,完全取決於機器學習的成熟度。
那麼⋯⋯電腦要習學到什麼程度才應該讓它上馬路?
沒有人能夠回答這個問題,但全世界每一個國家對於持有駕照,都有最基本的年紀要求。我們不會讓一個6歲的孩子去考駕照,因為他的判斷與認知能力都不夠成熟。但是我們對自駕車的成熟度卻完全沒有任何規範。
2 吋的黑膠帶 +「起乩」的特斯拉
不久前有人用一截2吋長的黑膠帶,誘騙了特斯拉做出嚴重錯誤的決策。他們把測試場限速35英哩 (56公里) 的告示牌,用一小截黑膠帶,將 3 中間那一橫,向左延長了2吋,以至於那個「3」看起來有一點像「8 」。(如下圖)
測試的特斯拉隨即自動加速到85英哩 (136公里)。他們一連測試了兩部特斯拉,都得到了同樣的反應。那只是一個看起來有點怪異的35,在任何人類的眼睛裡,都不應該被誤認為是85。更嚴重的問題是,即使真的是85,哪怕是個 6歲的孩子也該知道,馬路上不應該出現這樣瘋狂的速限⋯⋯可是電腦只有專業知識,沒有普通常識。
電腦只知道死心塌地依照劇本行事,而不知道什麼叫做「違反常理」。這就是機器學習下最恐怖的結果。
所以,電腦的普通常識也許不如一個 6 歲的孩子
三條貼紙 +衝往對向車道的特斯拉
去年4月有人用三條貼紙,把一輛特斯拉輕易地騙到對向車道上。他們用貼紙在馬路上畫了三小段類似分隔車道的虛線,連接到對向車道。測試的特斯拉誤以為車道突然偏左,毫不猶豫地衝往對向車道。(參考下圖)