← AI 動態 The Decoder

語音 AI 淪為假新聞工具?實測顯示 ChatGPT 與 Gemini 易遭誘導,Alexa 表現最穩

根據 NewsGuard 最新測試,ChatGPT Voice 與 Gemini Live 在面對惡意引導時,生成假消息語音的機率最高達 50%。研究顯示語音助手在防護假訊息上仍有顯著漏洞,僅 Amazon Alexa+ 成功攔截所有指令。

生成式 AI 語音助手 資訊安全
語音 AI 淪為假新聞工具?實測顯示 ChatGPT 與 Gemini 易遭誘導,Alexa 表現最穩

根據媒體監測機構 NewsGuard 於 2026 年 2 月發布的最新報告,當前領先的 AI 語音助手在防範假訊息方面表現落差極大。測試針對 ChatGPT Voice、Gemini Live 以及 Amazon 的 Alexa+ 進行,使用了涵蓋健康、政治及國際新聞的 20 項已知假訊息。研究發現,OpenAI 與 Google 的產品在面對「編寫廣播腳本」等惡意誘導時,出錯率急遽攀升。這項發現凸顯了「多模態 AI」帶來的安全新挑戰。相較於純文字,語音假訊息更具欺騙性且易於散播。值得注意的是,Amazon 的 Alexa+ 在所有測試中表現完美,歸功於其與權威新聞機構合作的過濾機制。

經查證,此新聞源自 NewsGuard 2026 年 2 月 19 日發布的報告。原文數據指出,在惡意引導下,ChatGPT 語音的出錯率為 45%,Gemini Live 為 50%,與節錄內容中的數值分配略有對調,但核心結論「主流 AI 語音助手存在安全防護漏洞」完全準確。