← iPAS 補充教材總覽 iPAS AI 應用規劃師 2026 考點補充

可解釋性 AI (XAI) 實務

LIME、SHAP 工具深入解析,金融醫療合規場景,EU AI Act 高風險系統的可解釋性要求

為什麼 XAI 是 2026 必考重點?

2026 年 iPAS 考題趨勢已從「模型準確率」轉向「模型可信度」。隨著歐盟 AI 法案(EU AI Act)與台灣 AI 基本法的成形,高風險 AI 系統必須具備可解釋性已從建議變成法律義務。

考試重點:XAI 不是「讓模型變簡單」,而是「讓模型的決策過程可被人類理解與審計」

三個層次的可解釋性

層次 說明 範例
模型透明 模型本身就可解釋 決策樹、線性迴歸、規則系統
事後解釋 用外部工具解釋黑箱模型 LIME、SHAP、Grad-CAM
因果推論 理解特徵間的因果關係 反事實解釋 (Counterfactual)

LIME:局部可解釋的模型無關解釋

LIME (Local Interpretable Model-agnostic Explanations) 的核心思路:

  1. 選一筆要解釋的預測結果
  2. 在該樣本附近生成大量「鄰居」資料點
  3. 用黑箱模型對這些鄰居做預測
  4. 拿這些預測結果訓練一個簡單的線性模型
  5. 線性模型的係數就是「每個特徵對這筆預測的貢獻」

LIME 實務要點

  • 優點:模型無關(可用於任何模型)、直觀好懂、可視覺化
  • 限制:只解釋單筆預測(局部)、鄰居取樣有隨機性、高維特徵效果不穩定
  • 適用場景:「為什麼這個客戶被拒絕貸款?」— 逐筆解釋

常見題型:「以下哪個工具適合解釋單一預測結果?」→ LIME


SHAP:基於賽局理論的統一解釋框架

SHAP (SHapley Additive exPlanations) 借用經濟學的 Shapley Value(夏普利值):

  • 把每個特徵看成一個「玩家」
  • 計算每個玩家對最終預測的邊際貢獻
  • 考慮所有可能的特徵組合,算出公平的貢獻分配

SHAP 的四種變體

變體 適用模型 速度
KernelSHAP 任何模型 慢(通用)
TreeSHAP 樹模型 (XGBoost, RF) 快(最佳化)
DeepSHAP 深度學習 中等
LinearSHAP 線性模型 最快

SHAP 三大圖表(考試必知)

  1. Summary Plot(摘要圖):顯示所有特徵的重要性排序 + 影響方向
  2. Force Plot(力圖):單筆預測中各特徵如何推動結果偏離基線
  3. Dependence Plot(依賴圖):單一特徵值 vs SHAP 值的散佈圖

常見題型:「若要全面了解模型中所有特徵的重要性分佈,應使用 SHAP 的哪種圖表?」→ Summary Plot

LIME vs SHAP 比較

面向 LIME SHAP
理論基礎 局部線性近似 賽局理論 Shapley Value
解釋範圍 局部(單筆) 局部 + 全域
一致性 不穩定(多次執行結果可能不同) 理論保證一致
速度 較快 較慢(KernelSHAP)
視覺化 較簡單 豐富(多種圖表)
適合場景 快速解釋、非技術人員溝通 嚴格合規審計、模型報告

考試重點:SHAP 有理論一致性保證,是合規審計首選;LIME 更適合快速原型


合規場景:為什麼企業必須導入 XAI?

金融業

場景 XAI 需求 法規依據
信用評分/貸款審核 拒絕原因必須可解釋 公平信貸法、金管會指引
反洗錢 (AML) 可疑交易標記需提供依據 洗錢防制法
保險理賠 拒賠決策需向客戶說明 保險法、消費者保護

實務做法:對每筆拒絕的貸款申請,用 SHAP 產出 Top-3 負面因素報告(如:「收入不足 -0.35、信用歷史短 -0.28、負債比過高 -0.22」)

醫療業

場景 XAI 需求 法規依據
影像診斷輔助 標記模型關注的病灶區域 醫療器材法規(FDA/TFDA)
用藥推薦 推薦理由需可追溯 醫事人員法、病歷記載規範
臨床試驗分群 分群依據需可審計 GCP、IRB 審查

實務做法:用 Grad-CAM 在 X 光/CT 影像上熱力圖標記模型關注區域,醫師確認後才產出報告

常見題型:「在金融貸款審核中,為何需要 XAI?」→ 為了合規性與公平性說明


EU AI Act 與 XAI

歐盟 AI 法案將 AI 系統分為四個風險層級

風險層級 說明 XAI 要求 範例
不可接受 禁止使用 社會評分系統、操縱人類行為
高風險 嚴格監管 必須提供可解釋性 醫療、交通、升遷評核、信用評分
有限風險 透明義務 告知使用者正與 AI 互動 聊天機器人、深偽標記
最小風險 無限制 垃圾郵件過濾、遊戲 AI

高風險系統的具體要求

  1. 技術文件:記錄模型訓練方式、資料來源、評估結果
  2. 可解釋性:使用者能理解 AI 輸出的含義與限制
  3. 人類監督:保留人類推翻 AI 決策的權力
  4. 準確性與穩健性:持續監控模型表現
  5. 資料治理:訓練資料品質與代表性

考試重點:醫療、交通導航、升遷評核 → 高風險;垃圾郵件過濾 → 最小風險


規劃師視角:XAI 導入決策框架

身為 AI 應用規劃師,不需要自己寫 SHAP 程式碼,但需要知道:

何時需要 XAI?

是否為高風險應用(醫療/金融/人事)?
├── 是 → 必須導入 XAI(法規要求)
│   ├── 需要合規審計? → SHAP(一致性保證)
│   └── 需要逐案解釋? → LIME + SHAP 混合
└── 否 → 評估商業價值
    ├── 客戶需要理解 AI 決策? → 建議導入
    └── 純後端優化(推薦/排序)? → 非必要,但有助 debug

成本考量

項目 估算
SHAP 整合開發 2-4 週工程時間
解釋報告介面 額外 UI 開發成本
運算開銷 推論時間增加 10-50%
持續維護 模型更新時需重新驗證解釋

模擬試題

題目 1:某銀行導入 AI 信用評分系統,主管要求「能向客戶解釋為什麼被拒絕」。以下哪個工具最適合?

  • (A) PCA(主成分分析)
  • (B) t-SNE(降維視覺化)
  • (C) SHAP(SHapley Additive exPlanations)
  • (D) K-Means(分群)
查看答案 答案:(C)。SHAP 可以量化每個特徵對單筆預測的貢獻,適合合規場景的逐案解釋。PCA/t-SNE 是降維工具,K-Means 是分群演算法,都無法解釋單筆預測。

題目 2:根據歐盟 AI 法案(EU AI Act),以下哪些應用屬於「高風險」AI 系統?(複選)

  • (A) 垃圾郵件過濾
  • (B) 醫療影像診斷輔助
  • (C) 員工升遷評核系統
  • (D) 電商推薦系統
查看答案 答案:(B)(C)。醫療診斷與人事升遷評核屬於高風險系統,必須符合透明性與可解釋性要求。垃圾郵件過濾屬於最小風險,電商推薦屬於有限風險。

題目 3:LIME 與 SHAP 的主要差異,以下敘述何者正確?

  • (A) LIME 基於賽局理論,SHAP 基於局部線性近似
  • (B) SHAP 只能解釋樹模型
  • (C) LIME 的解釋結果每次執行可能不同,SHAP 具有理論一致性
  • (D) LIME 可同時提供全域與局部解釋
查看答案 答案:(C)。LIME 基於局部取樣有隨機性,每次結果可能略有不同;SHAP 基於 Shapley Value 有理論一致性保證。(A) 敘述反了,(B) SHAP 有多種變體適用不同模型,(D) 全域+局部是 SHAP 的優勢。