根據《紐約時報》報導,包括OpenAI執行長阿特曼(Sam Altman)與Google的哈薩比斯(Demis Hassabis)等專家日前與拜登及賀錦麗(Kamala Harris)當面討論人工智慧問題。阿特曼5月中旬在參議院委員會就人工智慧的潛力及其風險作證時,宣稱「政府的監管干預對於減輕日益強大的模型帶來的風險至關重要」。不過當阿特曼被問及「人工智慧發展最大噩夢是什麼」,阿特曼則說「人工智慧將對就業產生重大影響,但很難預測這種影響到底是什麼」,但他也對參議員們表示:「我認為AI如果出了問題,可能將大錯特錯」、(因此)「我們希望與政府合作,防止這種情況發生」。
「人工智慧安全中心」的執行主任丹・亨德里克斯(Dan Hendrycks)對《紐約時報》表示,這次的聯合聲明代表人工智慧行業領導者的現身說法。這些專家過去只是私下表達對這些技術風險的擔憂,這也顯示擔心AI發展與傷害的業內人士並非少數。《紐時》指出,人工智慧的部分懷疑論者認為,AI目前仍不足以構成生存威脅,他們更關心AI蘊含的偏見與不當反饋,而非AI帶來的長期危險。
不過也有專家擔憂AI進步太快,甚至在某些領域已經超越人類的一般表現,甚至在所有領域超越人類也不是太困難的事。在許多AI的展示與應用之中,AI技術已經展現出相當傑出的理解力與創造力,讓人擔心「通用人工智慧」(artificial general intelligence,能夠表現正常人類所具有的所有智能行為的一種人工智慧,甚至在所有智慧領域都超越人類的水準)的到來已經不會太遙遠。
對於「人工智慧安全中心」與350位專家的聯合聲明只有22個英文字,亨德里克斯表示,專家們或許不同意AI究竟會帶來何種風險,或者他們對於如何防止這些風險的措施仍無共識,但沒有疑問的是,所有參與連署者都對強大的人工智慧感到擔憂。亨德里克斯說:「我們不想推動包含30種潛在干預措施的龐大清單,這麼做反而會淡化訊息。」OpenAI的幾位高管上週曾公開撰文,呼籲領先的幾種人工智慧製造商應該彼此合作,甚至組成類似國際原子能總署(IAEA)這樣的機構,對於人工智慧的安全做出應有的規範。
美國《外交事務》根據市場調查機構益普索(Ipsos)2022年發布的調查指出,美國社會看待AI的態度堪稱悲觀,因為僅35%的美國人認為AI的好處大於風險;至於對AI最樂觀的國家則是中國,因為將近五分之四的中國人相信AI的好處大於風險。華府智庫「新美國安全中心」(CNAS)的德雷塞爾(Bill Drexel)和研究助理凱莉(Hannah Kelley)指出,在美國,災難促使公眾提高關注、加強安全措施;但到了中國,災難事故卻很少能通過媒體引起反響,這是因為政府為了維穩封鎖資訊,形成「災難健忘症」的特殊文化,也少有人真正負起災難的責任。