← M01 AI 思維與治理 M01 AI 思維與治理 iPAS L11102

M01.11|台灣 AI 基本法:七大原則與企業必知的法規框架

台灣第一部 AI 專法 — 不只是法律人要懂,規劃師更要會用

L1-AI基礎知識-AI治理框架 L1-AI基礎知識-AI倫理與責任 L1-AI基礎知識-AI法規與政策
AI基本法 七大原則 國科會 風險分級 法規遵循
📋

本講學習重點

AI 基本法的主管機關是誰?
七大原則中哪一條強調人類最終決策權?
AI 基本法是否有罰則?
風險分級框架由哪個部會推動?
AI 基本法全文共幾條?

主管機關是國科會(非數發部),負責統籌協調

人類自主原則(Human-in-the-loop)是最重要考點

基本法是框架法,本身無罰則,但子法規可能有

風險分級框架由數位發展部負責推動

全文共 20 條,2024/12/23 三讀通過,2025/1/14 施行

📌 台灣 AI 基本法是框架性立法,以七大原則為核心,由國科會主管,企業應以此為合規基準線。
台灣 AI 基本法:七大原則與企業必知的法規框架

🎙️ Podcast(中文)

0:00 / 0:00

一句話搞懂

AI 基本法 = 台灣 AI 的「交通規則」,告訴所有人:可以開車,但要遵守七條規矩。

白話解說

2024 年 12 月 23 日,立法院三讀通過《人工智慧基本法》,2025 年 1 月 14 日正式施行。這是台灣第一部 AI 專法,全文共 20 條。它的定位是「框架法」,就像憲法是所有法律的母法一樣,AI 基本法是所有 AI 相關子法規的上位指導原則。

先搞清楚一件最容易搞混的事:主管機關是國家科學及技術委員會(國科會),不是數位發展部。這是考試超級愛考的陷阱題。數位發展部負責的是「風險分級框架」的推動與執行,但整部法的主管機關、統籌協調角色是國科會。

接下來看七大原則。你可以把它想成 AI 的「七條交通規則」:

一、永續發展與福祉 AI 的發展要對社會有正面貢獻,不能只顧賺錢。就像蓋工廠可以,但不能汙染河川。企業導入 AI 時要思考:這個 AI 對員工、客戶、社會整體是加分還是減分?

二、人類自主(Human-in-the-loop) 這是七大原則中最重要的考點。意思是:AI 可以輔助決策,但最終拍板的必須是人。就像自動駕駛可以幫你開車,但駕駛座上必須有人隨時能接手方向盤。在高風險場景(醫療診斷、司法判決、信貸審核),人類必須保有最終決策權,AI 只能是「建議者」。

三、隱私保護與資料治理 訓練 AI 需要大量資料,但不能因此侵犯個人隱私。企業要確保資料蒐集有合法依據、使用有明確目的、儲存有安全防護。這條原則和《個人資料保護法》高度連動。

四、資安與安全 AI 系統不能有安全漏洞。想像一個控制紅綠燈的 AI 被駭客入侵,後果不堪設想。企業要對 AI 系統做安全測試、建立事件應變機制。

五、透明與可解釋 使用者有權知道「AI 為什麼做出這個決定」。銀行用 AI 拒絕你的貸款申請,不能只說「系統判定不通過」,要能說明是哪些因素導致的。這也是金管會指引特別強調的重點。

六、公平與不歧視 AI 不能因為性別、種族、年齡、居住地等因素而差別對待。如果 AI 面試系統學到「過去都錄取男性」就自動篩掉女性履歷,這就違反了公平原則。企業要定期做偏見測試(bias audit)。

七、問責機制 出了問題,要有人負責。不能說「是 AI 決定的,跟我無關」。企業必須建立明確的責任鏈:誰決定導入這個 AI?誰負責監督它的運作?出了問題誰要第一時間處理?

最後補充一個關鍵知識點:雖然 AI 基本法本身是框架法、沒有直接罰則,但它授權各部會制定子法規。數位發展部負責推動「風險分級框架」,未來將依風險等級對不同 AI 應用訂定不同程度的管理要求。換句話說,基本法是「原則宣示」,真正有牙齒的規定會在後續子法規中出現。

應用場景

場景一:銀行 AI 信貸系統的合規檢查

一家商業銀行導入 AI 信貸評分模型,用來自動審核個人信貸申請。上線前,合規部門拿著 AI 基本法做了一次對照檢查:

  • 人類自主:信貸最終核准權是否還在人類審核員手上? → 確認:AI 只產出「建議核准/建議婉拒」,最終按鈕由審核員點。
  • 透明與可解釋:被拒絕的客戶能不能知道原因? → 確認:系統會產出「前三大拒絕因素」摘要。
  • 公平與不歧視:模型有沒有歧視特定族群? → 發現問題:模型輸入變數包含「居住郵遞區號」,可能間接反映社經地位。決定移除此變數並重新訓練。
  • 問責機制:出問題誰負責? → 確認:風險管理部為模型治理的負責單位,每季做一次模型檢查報告。

場景二:公部門用 AI 篩選社福補助申請

某縣市政府社會局導入 AI 系統,自動評估社福補助申請案的優先順序,加速審核流程。這套系統上線前需要特別注意:

  • 永續發展與福祉:這個 AI 的目的是幫助弱勢族群更快拿到補助,而非減少補助發放。必須確認 AI 不會因為「效率優化」而系統性地降低通過率。
  • 人類自主:社工人員必須保有覆審權。AI 標記為「低優先」的案件,社工仍然要逐案確認,不能完全交給機器。
  • 公平與不歧視:AI 不能因為申請人的戶籍地、族群背景而產生差別待遇。上線前必須做公平性測試,確認各族群的通過率沒有統計顯著差異。
  • 隱私保護:社福申請資料非常敏感(收入、健康狀況、家庭結構),AI 系統的資料存取權限必須最小化,並建立存取日誌。

常見誤區

  1. 「AI 基本法是框架法,不會罰錢,所以不用管」 — 基本法本身確實沒有直接罰則,但它授權各部會制定子法規,子法規可以有罰則。更重要的是,如果企業的 AI 應用出了問題(例如歧視、隱私外洩),即使基本法本身不罰,《個資法》、《消保法》、金管會指引等既有法規照樣能追究責任。基本法是「最低標準」,不是「安全港」。

  2. 「主管機關是數位發展部」 — 錯!主管機關是國科會。數位發展部負責的是「風險分級框架」的推動執行,以及 AI 產品評測制度。兩者角色不同,考試常考。記憶口訣:「國科會管原則,數發部管分級」。

  3. 「只有高風險 AI 需要遵守七大原則」 — 七大原則適用於所有 AI 應用,不分風險等級。風險分級影響的是「管理強度」(高風險要做更多檢查、更詳細的文件記錄),但原則本身是普遍適用的。就像交通規則不會因為你開的是小車就不用遵守。

小練習

  1. 原則對應練習:以下四個情境,分別最直接違反了 AI 基本法的哪一條原則?

    (a) 一家保險公司的 AI 核保系統完全自動決定,沒有任何人工審核流程。

    (b) AI 招募系統因為訓練資料偏差,自動將 45 歲以上的應徵者排在最後面。

    (c) 醫療 AI 診斷系統建議患者不需要進一步檢查,但醫生無法查看 AI 判斷的依據。

    (d) 某個 AI 語音助理默默錄下使用者的所有對話,用來改善模型,但從未告知使用者。

點擊查看參考答案

原則對應解答

| 情境 | 違反原則 | 說明 | |------|---------|------| | (a) 保險 AI 全自動核保 | **人類自主** | 高風險金融決策必須有人類最終審核(Human-in-the-loop) | | (b) AI 招募歧視年長者 | **公平與不歧視** | 因年齡產生差別待遇,需做偏見測試 | | (c) 醫療 AI 無法解釋 | **透明與可解釋** | 醫生無法理解 AI 判斷依據,無法做專業把關 | | (d) 偷錄對話訓練模型 | **隱私保護與資料治理** | 未告知使用者即蒐集個資,違反知情同意原則 | **考試技巧**:七大原則的英文關鍵字要記住,尤其是 Human-in-the-loop(人類自主)和 Explainability(可解釋性),這兩個是歷年考題最愛考的。

關鍵字自我檢核

✅ 人工智慧基本法 ✅ 七大原則 ✅ 國科會 ✅ 風險分級框架 ✅ Human-in-the-loop