BBC看OpenAI的「聲音竊盜案」:讓人想起矽谷的無情、傲慢、唯利是圖

2024-05-24 18:00

? 人氣

還有更複雜的問題。該報告稱,目前還沒有可靠的方法來準確理解AI工具為什麼會產生這樣的輸出——甚至它們的開發人員也不確定。而目前已建立的安全測試項目「紅隊演練」(Red Teaming),即評估人員故意讓AI工具行為不當,也沒有最佳實踐指南。

透過<Google新聞> 追蹤風傳媒

在本周由英國和韓國在首爾聯合主辦的後續峰會上,科技公司承諾,如果一款產品沒有達到一定的安全門檻,就會將其擱置——但這些標準要到2025年的下一次峰會才會確定。

就在專家們爭論AI威脅的本質時,科技公司仍在不斷推出產品。

僅在過去幾天,OpenAI的ChatGPT-4o、谷歌的「阿斯特拉計劃」(Project Astra)和微軟的CoPilot+相繼推出。人工智慧安全研究所(AI Safety Institute)拒絕透露是否有機會在這些工具發佈前對其進行測試。

OpenAI表示其有十項安全流程。但本周早些時候,該公司一名專注於安全的高級工程師辭職,稱他所在的部門在內部一直「逆風而行」。

「在過去的幾年裡,安全文化和流程在閃閃發光的產品面前已退居其次。」簡·雷克(Jan Leike)在「X」上寫道。

當然,OpenAI還有其他團隊在繼續關注安全問題。但這些公司實際上在做什麼,並沒有官方和獨立監督。

「自願性協議本質上只是企業給自己的作業打分的一種方式。」獨立研究機構艾達·洛夫萊斯研究所(Ada Lovelace Institute)副總監安德魯·斯特雷特(Andrew Strait)說。「它本質上無法取代具有法律約束力和可強制執行的規則,而這些規則是激勵這些技術負責任發展所必需的。」

英國著名計算機科學家溫迪·霍爾(Dame Wendy Hall)教授說:「我們沒有這些公司會遵守承諾的保證。」

「我們如何讓他們對自己所說的話負責,就像我們對製藥公司或其他存在高風險的行業所做的那樣?」

更嚴格的規則即將出台。歐盟通過了《人工智慧法案》(AI Act),這是世界上首部該類法律,並對違規行為制定了嚴厲的懲罰措施。但一些人認為,這將影響用戶——他們將不得不自己對AI工具進行風險評估——而不是那些開發AI的公司。

但這並不一定意味著AI公司就可以置身事外。

「我們需要逐步走向法律監管,但不能操之過急。」霍爾教授說。「建立每個人都簽署的全球治理原則真的很難。」

「我們還需要確保它真正是全球性的,而不僅僅保護的是西方世界和中國。」

與以往一樣,最重要的問題是,監管和政策的推出要比創新滯後得多。

關鍵字:
風傳媒歡迎各界分享發聲,來稿請寄至 opinion@storm.mg

本週最多人贊助文章