← AI 動態
The Decoder
美戰爭部指 Anthropic 倫理規範「污染」供應鏈,Claude 因太安全被列風險
美國戰爭部技術長 Emil Michael 表示,Anthropic 的 Claude 模型因內建「憲法 AI」倫理架構,被視為供應鏈風險,擔心過度的道德限制會導致軍事決策失誤並危及士兵安全。
Anthropic
AI 倫理
軍事應用
Claude
供應鏈安全
美國戰爭部(Department of War)技術長 Emil Michael 近日發表爭議言論,將 Anthropic 開發的 Claude 模型列為供應鏈風險。他指出,Anthropic 核心的「憲法 AI(Constitutional AI)」框架將特定的政策偏好植入模型,這種做法形同對供應鏈的「污染」。軍方擔心,當 AI 被應用於戰場支援或武器開發時,這些預設的倫理紅線可能導致模型在關鍵時刻提供無效建議,進而影響士兵的防護力與作戰效率。
此事件引發了 AI 業界對「價值觀對準(Alignment)」的深度討論。對一般大眾而言,這顯示了 AI 技術在不同領域應用時的利益衝突:在民用市場,高度的安全性與道德感是競爭優勢;但在軍事或國安領域,這些限制卻可能被解讀為技術障礙或意識形態滲透。這象徵著未來 AI 發展可能因用途不同,而出現民用與軍用兩套完全不同的準則與規範。