← AI 動態 The Decoder

找出 AI 瞎編的證據!羅馬大學開發「外溢能量」法偵測大型語言模型幻覺

羅馬大學研究團隊發現,當 LLM 產生事實錯誤的幻覺時,其內部運算會出現異常能量分布。他們開發出一種無需訓練的偵測技術,能更精準地識別 AI 產出的錯誤資訊。

LLM幻覺 AI可靠性 神經網路運算
找出 AI 瞎編的證據!羅馬大學開發「外溢能量」法偵測大型語言模型幻覺

這項由羅馬大學開發的研究揭示了 AI 模型「說謊」時的神經運算特徵。研究指出,雖然大型語言模型(LLM)在運作本質上不斷進行機率性預測,但當其生成與事實不符的內容(即幻覺)時,模型的最後運算層會留下可測量的「外溢能量」痕跡。這就像是人類說謊時生理特徵會產生微妙變化一樣,AI 的數學運算也會在出錯時露出馬腳。

這項技術的重要性在於它是「無需訓練」的,這代表它能直接套用於現有的各種模型中,且偵測效果優於以往的方法。對於一般使用者或企業而言,這意味著未來 AI 系統在回答問題時,能具備更可靠的「信心監測器」,在內容可能出錯的當下即時發出警示,大幅降低因信任 AI 錯誤資訊而導致的風險。