可解釋性 AI (XAI) 實務
LIME、SHAP 工具深入解析,金融醫療合規場景,EU AI Act 高風險系統的可解釋性要求
為什麼 XAI 是 2026 必考重點?
2026 年 iPAS 考題趨勢已從「模型準確率」轉向「模型可信度」。隨著歐盟 AI 法案(EU AI Act)與台灣 AI 基本法的成形,高風險 AI 系統必須具備可解釋性已從建議變成法律義務。
考試重點:XAI 不是「讓模型變簡單」,而是「讓模型的決策過程可被人類理解與審計」
三個層次的可解釋性
| 層次 | 說明 | 範例 |
|---|---|---|
| 模型透明 | 模型本身就可解釋 | 決策樹、線性迴歸、規則系統 |
| 事後解釋 | 用外部工具解釋黑箱模型 | LIME、SHAP、Grad-CAM |
| 因果推論 | 理解特徵間的因果關係 | 反事實解釋 (Counterfactual) |
LIME:局部可解釋的模型無關解釋
LIME (Local Interpretable Model-agnostic Explanations) 的核心思路:
- 選一筆要解釋的預測結果
- 在該樣本附近生成大量「鄰居」資料點
- 用黑箱模型對這些鄰居做預測
- 拿這些預測結果訓練一個簡單的線性模型
- 線性模型的係數就是「每個特徵對這筆預測的貢獻」
LIME 實務要點
- 優點:模型無關(可用於任何模型)、直觀好懂、可視覺化
- 限制:只解釋單筆預測(局部)、鄰居取樣有隨機性、高維特徵效果不穩定
- 適用場景:「為什麼這個客戶被拒絕貸款?」— 逐筆解釋
常見題型:「以下哪個工具適合解釋單一預測結果?」→ LIME
SHAP:基於賽局理論的統一解釋框架
SHAP (SHapley Additive exPlanations) 借用經濟學的 Shapley Value(夏普利值):
- 把每個特徵看成一個「玩家」
- 計算每個玩家對最終預測的邊際貢獻
- 考慮所有可能的特徵組合,算出公平的貢獻分配
SHAP 的四種變體
| 變體 | 適用模型 | 速度 |
|---|---|---|
| KernelSHAP | 任何模型 | 慢(通用) |
| TreeSHAP | 樹模型 (XGBoost, RF) | 快(最佳化) |
| DeepSHAP | 深度學習 | 中等 |
| LinearSHAP | 線性模型 | 最快 |
SHAP 三大圖表(考試必知)
- Summary Plot(摘要圖):顯示所有特徵的重要性排序 + 影響方向
- Force Plot(力圖):單筆預測中各特徵如何推動結果偏離基線
- Dependence Plot(依賴圖):單一特徵值 vs SHAP 值的散佈圖
常見題型:「若要全面了解模型中所有特徵的重要性分佈,應使用 SHAP 的哪種圖表?」→ Summary Plot
LIME vs SHAP 比較
| 面向 | LIME | SHAP |
|---|---|---|
| 理論基礎 | 局部線性近似 | 賽局理論 Shapley Value |
| 解釋範圍 | 局部(單筆) | 局部 + 全域 |
| 一致性 | 不穩定(多次執行結果可能不同) | 理論保證一致 |
| 速度 | 較快 | 較慢(KernelSHAP) |
| 視覺化 | 較簡單 | 豐富(多種圖表) |
| 適合場景 | 快速解釋、非技術人員溝通 | 嚴格合規審計、模型報告 |
考試重點:SHAP 有理論一致性保證,是合規審計首選;LIME 更適合快速原型
合規場景:為什麼企業必須導入 XAI?
金融業
| 場景 | XAI 需求 | 法規依據 |
|---|---|---|
| 信用評分/貸款審核 | 拒絕原因必須可解釋 | 公平信貸法、金管會指引 |
| 反洗錢 (AML) | 可疑交易標記需提供依據 | 洗錢防制法 |
| 保險理賠 | 拒賠決策需向客戶說明 | 保險法、消費者保護 |
實務做法:對每筆拒絕的貸款申請,用 SHAP 產出 Top-3 負面因素報告(如:「收入不足 -0.35、信用歷史短 -0.28、負債比過高 -0.22」)
醫療業
| 場景 | XAI 需求 | 法規依據 |
|---|---|---|
| 影像診斷輔助 | 標記模型關注的病灶區域 | 醫療器材法規(FDA/TFDA) |
| 用藥推薦 | 推薦理由需可追溯 | 醫事人員法、病歷記載規範 |
| 臨床試驗分群 | 分群依據需可審計 | GCP、IRB 審查 |
實務做法:用 Grad-CAM 在 X 光/CT 影像上熱力圖標記模型關注區域,醫師確認後才產出報告
常見題型:「在金融貸款審核中,為何需要 XAI?」→ 為了合規性與公平性說明
EU AI Act 與 XAI
歐盟 AI 法案將 AI 系統分為四個風險層級:
| 風險層級 | 說明 | XAI 要求 | 範例 |
|---|---|---|---|
| 不可接受 | 禁止使用 | — | 社會評分系統、操縱人類行為 |
| 高風險 | 嚴格監管 | 必須提供可解釋性 | 醫療、交通、升遷評核、信用評分 |
| 有限風險 | 透明義務 | 告知使用者正與 AI 互動 | 聊天機器人、深偽標記 |
| 最小風險 | 無限制 | 無 | 垃圾郵件過濾、遊戲 AI |
高風險系統的具體要求
- 技術文件:記錄模型訓練方式、資料來源、評估結果
- 可解釋性:使用者能理解 AI 輸出的含義與限制
- 人類監督:保留人類推翻 AI 決策的權力
- 準確性與穩健性:持續監控模型表現
- 資料治理:訓練資料品質與代表性
考試重點:醫療、交通導航、升遷評核 → 高風險;垃圾郵件過濾 → 最小風險
規劃師視角:XAI 導入決策框架
身為 AI 應用規劃師,不需要自己寫 SHAP 程式碼,但需要知道:
何時需要 XAI?
是否為高風險應用(醫療/金融/人事)?
├── 是 → 必須導入 XAI(法規要求)
│ ├── 需要合規審計? → SHAP(一致性保證)
│ └── 需要逐案解釋? → LIME + SHAP 混合
└── 否 → 評估商業價值
├── 客戶需要理解 AI 決策? → 建議導入
└── 純後端優化(推薦/排序)? → 非必要,但有助 debug
成本考量
| 項目 | 估算 |
|---|---|
| SHAP 整合開發 | 2-4 週工程時間 |
| 解釋報告介面 | 額外 UI 開發成本 |
| 運算開銷 | 推論時間增加 10-50% |
| 持續維護 | 模型更新時需重新驗證解釋 |
模擬試題
題目 1:某銀行導入 AI 信用評分系統,主管要求「能向客戶解釋為什麼被拒絕」。以下哪個工具最適合?
- (A) PCA(主成分分析)
- (B) t-SNE(降維視覺化)
- (C) SHAP(SHapley Additive exPlanations)
- (D) K-Means(分群)
查看答案
答案:(C)。SHAP 可以量化每個特徵對單筆預測的貢獻,適合合規場景的逐案解釋。PCA/t-SNE 是降維工具,K-Means 是分群演算法,都無法解釋單筆預測。題目 2:根據歐盟 AI 法案(EU AI Act),以下哪些應用屬於「高風險」AI 系統?(複選)
- (A) 垃圾郵件過濾
- (B) 醫療影像診斷輔助
- (C) 員工升遷評核系統
- (D) 電商推薦系統
查看答案
答案:(B)(C)。醫療診斷與人事升遷評核屬於高風險系統,必須符合透明性與可解釋性要求。垃圾郵件過濾屬於最小風險,電商推薦屬於有限風險。題目 3:LIME 與 SHAP 的主要差異,以下敘述何者正確?
- (A) LIME 基於賽局理論,SHAP 基於局部線性近似
- (B) SHAP 只能解釋樹模型
- (C) LIME 的解釋結果每次執行可能不同,SHAP 具有理論一致性
- (D) LIME 可同時提供全域與局部解釋