← AI 動態 The Decoder

Anthropic 狀告美國政府:拒絕移除 AI 戰爭與監測禁令,捍衛安全底線

AI 巨頭 Anthropic 起訴美國 17 個聯邦機構,抗議政府施壓要求移除 Claude 模型中「禁止自動化戰爭」與「禁止大規模監視」的安全護欄,挑戰政府干預 AI 倫理的權力。

AI 安全 Anthropic 數位倫理
Anthropic 狀告美國政府:拒絕移除 AI 戰爭與監測禁令,捍衛安全底線

Anthropic 日前向聯邦法院提起訴訟,控訴美國政府強迫其移除 Claude 模型的兩大安全規範:禁止用於致命自動武器以及禁止對公民進行大規模監視。起訴書揭露,國防部甚至威脅動用《國防生產法》強制接管技術,或將其列入供應鏈黑名單。這起事件顯示出生成式 AI 已深度滲透國防系統,引發了技術主導權的法律爭議。

這場法律戰對 AI 治理具有里程碑意義。對一般大眾而言,這關乎 AI 服務商是否有權決定技術的倫理邊界,以及政府權力與企業自主權之間的平衡。如果政府勝訴,未來 AI 模型的安全防護可能因政治或軍事目的而被撤除,增加技術被濫用於戰爭或監控的風險,對個人隱私與全球安全造成深遠影響。