(2)AI潛在的風險
雖為資訊背景出身,我對AI抱持著相對悲觀的態度。人腦的思維模式總有缺漏,程式的運作過程及結果識我們無法預期的後患產生。倘若未來AI已完備了足以與成年人匹敵的學習能力,AI間在我們肉眼看不見的後台以迅雷不足以掩耳的速度為彼此編寫完整且無缺漏的程式。寫出人類都無法解決的最強AI,陷人類於不利之中。
而AI訓練的模型也與其運算方式息息相關。若給AI學習的模組都是「負面」、「血腥」、「暴力」,那AI將會以此為運算基底,一個擁有自我學習能力的無情殺人機器就此產生。
(3)為了環境,AI可能會做出的抉擇
如今全球人口數已過飽和,對地球生態造成了極度的負荷。就生態學而言維護環境最快的方法正是「減少人類數量」。這個人類自己都能夠得出的論點,AI肯定也想的到。差別在人類不敢執行,但AI即使過程會造成倫理上的衝突也會為了達成程序目標而執行。我相信這在是不久後變會遇到的問題。
科技在進步,人類呢?
近十年來人類的科技進展之飛快,自只會依照特定指示運作的bot、依照撰寫者邏輯與使用者互動的siri、google助理,到近期贏過南韓棋王的AlphaGo、成功通過圖靈測試的Eugene Goostman、以及表示自己有情感的LaMDA。至今他們還在處理運算模型不停歇地完備演算法。
現在資料收集十分便利,現代人已經習慣透過網路獲得資料,沒有經歷到學習曲線中的學習高原,缺乏邏輯思辨力的訓練。或許正是因為現代人用腦的強度降低,思考能力下降,才產生了「AI是無害、友善、方便又有知覺」的錯覺呢?
AI發展快速的現在,我們非第一線的研究人員如何應變?
為了避免未來出現如科幻電影般無形被機器的管理可能性。我建議使用科技的心態不該是「過度仰賴」,另外也須培養獨立思考、自我實作、查證資料的習慣。畢竟科技終究只是做為輔助的工具。不要讓科技操縱了人。
寫程式的人有一句老話「電腦是很笨的,你要把所有例外情形詳細地寫清楚」,但在AI能獨立學習的現在,實際上是哪方遜色了呢?我們真的還有機會能「操縱」機器人嗎?
*作者為大學生