有一則老笑話是,在未來的工廠裡,將有兩名員工:一個人和一條狗,人的職務是餵狗,狗的職務是看人,不讓人碰觸任何機器。未來的公司,真的會變成這種面貌嗎?
我們可不這麼認為。人類固然有電腦沒有的偏誤,但也有電腦欠缺的長處。就拿其中一項來說吧!我們隨時從感官接收大量資訊,而且不會事先篩選資訊,來什麼就接收什麼,哪怕只是很短的時間,我們也難以只聽特定聲音、只看特定事物。電腦則是剛好相反,下指令的人要它們蒐集什麼資料,它們就蒐集那些資料,很難蒐集更多或其他資料。……因此,在多數的情況下,由人類檢查電腦的決策,確保那些決策合情合理,會是比較好的做法。長期研究分析與科技領域的學者湯瑪斯•戴文波特(Thomas Davenport),將這種做法稱為「望向窗外」(look out of the window)。這個名詞並非全然是聯想式的隱喻,是一個飛機駕駛給戴文波特的靈感。他告訴戴文波特,在開飛機時,他高度仰賴飛機的機械操作,但也必須時而望向窗外,掃視天際線。這種方法非常有益,不只是為了防止錯誤,也有助於維護一家公司的聲譽。
叫車平台Uber,在2014 年末就學到了慘痛教訓。當時,Uber 的加成計費(surge pricing,在尖峰時段暫時調高費率),令許多用戶十分不爽。Uber 的辯護理由是(我們也同意),加成計費有助於平衡尖峰時段的供需,當實際或預期的Uber 車輛供給不敷需求時,該公司的演算法將會調升費率,鼓勵更多駕駛加入提供服務。
這項實務在2014 年12 月,招來了大量的負面輿論,起因是一名伊朗教士在澳洲雪梨一間咖啡館挾持了十八名人質,許多人慌忙逃離事件的發生地區,其中一些利用Uber叫車,Uber 的電腦系統便對這股激增的需求做出反應,啟動加成計費。許多人看來,在危機爆發時,這是非常不當的反應,所以該公司遭到強烈抨擊。
Uber 發出了下列聲明:「在事件發生時,我們沒有立刻關閉加成計費,這是錯誤決策。」 顯然,該公司也內建在一些情況下取消加成計費的設定。比方說,後來在2015 年11 月13 日的晚上,伊斯蘭恐怖分子在巴黎發動了一連串的攻擊,在第一起攻擊行動發生的三十分鐘內,Uber就取消該市的加成計費,並提醒所有用戶這個緊急事件。
像這樣的例子,足以顯示將人類判斷與演算法結合的好處。不過,公司在採用這種方法時,也必須小心,因為我們實在太鍾情於自己的判斷力,往往過度自信,許多人(如果不是絕大多數的話)經常太快凌駕於電腦之上,縱使是在電腦的答案較佳時。前文提過社會學家克里斯•史奈德斯,他對荷蘭採購經理人的預測能力進行研究,他發現「有演算模型輔助的專家,預測準確度通常介於純模型和無模型輔助的專家之間。所以,提供演算模型給專家,他們的預測準確度將會提高,但純模型預測的能力仍然較佳。」