美國人工智慧研究實驗室OpenAI在30日發布第一份人工智慧工具被用於秘密影響力行動的報告,該份39頁的報告指出中國、伊朗、俄羅斯、以色列的組織利用OpenAI工具創造假訊息,並在社群媒體上發布。OpenAI表示這些活動並未觸及大量受眾,而該實驗室也已破壞來自俄羅斯、中國、以色列、伊朗的虛假資訊活動
OpenAI的報告指出,其研究人員發現並禁止過去3個月與5個秘密影響力行動相關的帳號,這些帳號來自國家及私人參與者。俄羅斯的2項行動創造並傳播批評美國、烏克蘭、一些波羅的海國家的內容。其中一項行動使用OpenAI模型來除錯程式碼,並建立發布在即時通訊平台「Telegram」的機器人。中國的影響力行動產生英文、中文、日文、韓文的文本,然後將其發布在X(前身為推特,Twitter)及內容社群平台Medium。
伊朗的行動製作了攻擊美國及以色列的完整文章,並將其翻譯成英語及法語。以色列政治公司「Stoic」經營一個虛假社群媒體帳號網絡,該帳號創造一系列內容,其中包括指責美國學生抗議以色列在加薩的戰爭相關貼文是反猶太主義。
惡意行為者利用OpenAI的生成式人工智慧(generative AI)模式,在社群媒體平台上創造及發布宣傳內容,並將內容翻譯成不同語言。根據該報告指出,這些行動都沒有獲得關注或吸引大量受眾。
該報告也強調生成式人工智慧被納入虛假資訊活動的方式,成為改進內容生成一些方面的方式,例如製作更有說服力的外語貼文,但那不是唯一的宣傳工具。該報告指出:「這些行動都在某種程度上使用了人工智慧,但沒有一個僅使用人工智慧。相反地,人工智慧生成的材料只是他們發布的其中一種內容類型,還有更傳統的方式,例如手寫文字或從網路上複製的迷因。」
研究人員及當局已經知道OpenAI在其平台上禁止的一些假訊息傳播者,美國財政部(Department of the Treasury)在3月制裁了2名俄羅斯男子,據稱他們是OpenAI發現的一項活動幕後黑手,臉書母公司「Meta」也在今年禁止Stoic使用其平台,原因是違反其政策。