許多人不知道的是,保險業很早就開始探索利用歷年積累儲存的數據來分析、預測未來;在電腦和演算法尚未普及的時候就開始了。
有了演算法,保險公司如虎添翼。
哈克尼斯(Timandra Harkness)是這方面專家,有一部關於大數據的專著《Big Data: Does Size Matter》
有些顯而易見但人們通常不太在意的事,背後就有演算法的無形之手。
她舉了個例子,比如家庭住址的郵編就決定了你的保費高低,而你在這些問題上毫無發言權,完全被動。
你的房產或車保險保費在搬家後漲了還是降了,跟你個人沒有直接關係,而是跟這個地區的其他居民曾經,或者在多大程度上可能成為犯罪分子的受害者,或者遭遇水淹,或者出車禍,等等。
現在比較普遍的行車記錄器,汽車上的「黑匣子」,可以用來記錄司機的駕車習慣,如果記錄顯示車主基本上是安全駕駛,即使其他指標都屬於高風險群體,他/她的汽車險保費也可能降低。
這是利用演算法制定個人化保險產品的一個例子。
保險行業的實質是風險分攤,人人交保費,需要的人從錢庫裡取。個人化的保險產品能否普及,或許還需要演算法來幫忙,確定這類新業務對保險公司有何利弊。
醫療
人工智能(AI)在疾病診斷方面的應用日益普及,有些地方AI甚至可以提出治療方案和療法建議。
2020年1月一項研究結果顯示,通過X光片子診斷乳癌,演算法的表現超過醫生。
其他例子也有,比如可以預測子宮癌患者生存率的工具,這個工具還能幫助確定治療方案。
倫敦大學學院(UCL)研發的人工智能可以分辨出哪些病人最容易忘記就診預約,因此需要提醒服務。
海量數據是訓練人工智能的必要前提。這就涉及到許多棘手的問題,包括病人隱私和個人數據保護。
2017年,英國資訊委員會裁定,皇家自由醫院NHS信託沒有妥善保管病人數據,跟谷歌的人工智能子公司DeepMind分享了160萬病人的數據。
警務
大數據和機器學習對警察機構來說具有顛覆性的巨大潛力。
理論上,演算法具備了科幻作品中描述的那種「預測警務」(predictive policing)的功能,可以利用歷年刑事罪案的數據分析來確定警察資源的部署。
問題在於這種演算法有先天缺陷,容易產生演算法偏見,甚至形成演算法種族歧視。
科技智庫WebRoots Democracy專家喬杜里(Areeq Chowdhury)解釋說,這就跟演算法確定考試分數類似,實際上是根據別人過往的學業表現來給你打分,有什麼道理?
他說,根據演算法,一個特定社區很可能被不成比例地突出和強調。
國防和安全智庫RUSI2020年稍早發表了一份報告,闡述演算法在警務實踐中的應用。
報告提出一些需要關注的問題,包括沒有全國統一的準則,也沒有影響評估機制。
另一個需要深入研究的問題是演算法如何放大、加劇種族主義傾向。
警務部門已經在使用的人臉識辨技術受到批評,矛頭集中在用於機器學習的數據庫是否會導致演算法種族主義。
比如,用於人臉識別的攝像機識別白人更準確,是否因為它們背後的數據庫裡白人的面部數據更多?
這方面,數據是否足夠多,足夠多元化,就至關重要。
喬杜里說,最應該避免的是因為演算法誤判而錯抓無辜。