如果說兩年前ChatGPT的橫空出世,掀起了全球AI浪潮,那麼2025年初DeepSeek R1的發佈與爆紅,則真正讓無數中國人第一次親手觸及了AI應用。
三月伊始,中國通用人工智慧代理(AI Agent)Manus迅速崛起,成為該領域的新星。儘管伴隨著「套殼」爭議,但它仍顛覆了大眾對AI的認知——不再只局限於對話框裡的文字生成,而是能真正行動起來,在你的手機螢幕上自主操作。
Manus的爆火與爭議,恰恰折射出AI發展已進入真正意義上的「日新月異」階段:模型迭代、應用創新的速度,遠遠超出了普通用戶的適應能力。這種飛速演進帶來的不僅是驚嘆,更是對潛在風險的深切擔憂,監管問題也隨之浮出水面。
中歐國際工商學院決策科學與管理信息系统教授譚寅亮向BBC中文指出,目前極需監管關注的AI風險主要集中在三個領域:深度偽造技術的濫用、個人隱私保護,以及公共基礎設施安全防護。
各國各地區雖已意識到AI潛在危害,並相繼推出不同程度的監管措施,但這些探索仍處於初級階段。受訪專家指出,監管面臨兩大關鍵難題:一是如何拿捏監管尺度,使創新與風險之間達到微妙平衡?二是在去全球化背景下,如何實現國際協調,以達成全球範圍內對AI的有效監管?
「『汽車』已經發明,所以要編交通規則」
每一次新技術的誕生,總伴隨著新的風險。
汽車問世之初,交通事故隨之而來,人類不得不制定限速規則、道路規範、安全標準,以求駕馭這項技術。然而,即便如此,全球每年仍有超過一百萬人因交通事故而喪生。
今天,輪到人工智慧了。
與汽車類似,AI在帶來巨大便利的同時,也催生了前所未有的安全隱患。
聯合國「AI For Good」(AI向善)項目創始人、物理學家萊因哈德·蕭爾(Reinhard Scholl)對BBC表示,汽車發明之後,我們需要制定交通規則。AI的邏輯是一樣的。
但AI的複雜性遠超汽車。「人工智慧內部演算法複雜,推理過程呈現典型的黑盒模式,具有湧現性,」中國社科院學者張其仔和李偉在論文中指出。這意味著AI的輸出結果難以預測,並可能產生「人工智慧幻覺」——看似合理卻違背常識的結果,從而引發誤解、誤判、誤用,甚至誤導決策與行動。
這種風險已經不再是理論上的假設,而是現實中的存在。川普今與普京討論俄烏停戰:美方暗示烏克蘭「割地換和平」,學者警告「這預示了台灣的未來」更多文章
今年2月,BBC發佈的一份報告顯示,包括OpenAI的ChatGPT、微軟Copilot和谷歌Gemini在內的多款AI引擎,在生成新聞摘要時出現了「顯著的不準確性」,甚至扭曲了原有內容。研究發現,這些AI助手對新聞問題的回答中,有51%存在重大問題,其中19%的引用內容出現事實錯誤,如錯誤的數據、日期或陳述;另有13%的內容被篡改或根本不存在於原文中。