← M10 iPAS 實戰 M10 iPAS 實戰

M10.03|AI 倫理與法規

台灣 AI 基本法、歐盟 AI Act、負責任 AI — 合規不只是義務,更是競爭優勢

L1-AI基礎知識-AI倫理與社會影響 L1-AI應用規劃-法規合規與風險評估
AI倫理 AI法規 歐盟AI法案 台灣AI基本法 負責任AI 資料隱私 演算法偏差 可解釋性 公平性 個人資料保護
📋

本講學習重點

歐盟 AI Act 將 AI 分為哪幾個風險等級?
台灣 AI 基本法草案的核心原則是什麼?
演算法偏差(Bias)有哪幾種來源?
可解釋 AI(XAI)在法規中的重要性?
負責任 AI 的六大原則是什麼?

歐盟 AI Act 四級:不可接受風險→禁止;高風險→嚴格規範;有限風險→透明度義務;最低風險→自願

台灣 AI 基本法草案強調:以人為本、公平透明、安全可信、責任歸屬

偏差來源:歷史偏差、代表性偏差、測量偏差、評估偏差

XAI(可解釋 AI)是高風險應用的法規要求,如信貸、醫療、人事

負責任 AI 六原則:公平、可靠、隱私、包容、透明、當責

PDPA 個資法要求 AI 使用個人資料需有特定合法依據

人臉辨識是歐盟 AI Act 的高度管制領域

📌 AI 倫理與法規是 iPAS 近年比重快速上升的考科。掌握歐盟 AI Act 的風險分類、台灣個資法的 AI 應用限制,以及負責任 AI 的核心原則,不僅能應付考試,更能在職場上避免法律與聲譽風險。
AI 倫理與法規

🎙️ Podcast(中文)

0:00 / 0:00

一句話搞懂

AI 倫理與法規是「讓 AI 做對的事、以對的方式做」的制度框架:歐盟用 AI Act 依風險等級立法管制,台灣用 AI 基本法草案建立治理原則,企業則用「負責任 AI」框架自律。iPAS 考試中,這個主題近年出題比重大幅上升,特別是偏差、可解釋性、資料隱私這三個核心概念,幾乎每屆必考。


白話解說

為什麼 AI 需要倫理與法規?

2016 年,Amazon 測試一個 AI 履歷篩選系統,訓練後發現它會系統性地給女性候選人較低的評分。原因是訓練資料來自過去 10 年的錄用紀錄,而這些紀錄中男性佔絕大多數——AI 就「學」到了「男性候選人更好」的偏見。Amazon 最終放棄了這個系統。

類似的案例每天都在發生:AI 信貸系統對少數族裔放款較少、AI 醫療診斷系統對深膚色患者準確率較低、AI 人臉辨識系統對亞洲臉孔的識別率明顯落後。這些不是技術 Bug,而是人類社會偏見被「編碼」進了 AI 系統。

這就是為什麼我們需要 AI 倫理和法規——不是要限制 AI,而是要確保 AI 以公平、透明、有責任的方式為人類服務。

歐盟 AI Act:全球首部 AI 綜合法規

歐盟 AI Act(EU AI Act)於 2024 年正式生效,是全球第一部針對 AI 的綜合性法律,採用風險分級管理的架構:

第一級:不可接受風險(Unacceptable Risk)— 直接禁止

以下 AI 應用被完全禁止在歐盟境內使用:

  • 公共場所的即時遠端人臉辨識(限執法特定例外)
  • 操弄人類潛意識的 AI(例如:不知情情況下的情緒操控)
  • 基於行為的社會評分(Social Scoring)
  • 利用特定弱勢群體的 AI(如針對兒童、殘疾人的剝削性系統)

第二級:高風險(High Risk)— 嚴格規範

可以使用,但需要符合嚴格的合規要求(風險評估、人工監督、技術文件):

  • 教育:入學篩選、學習成效評估
  • 就業:招募、績效評估、晉升決定
  • 金融:信貸評分、保險定價
  • 醫療:醫療設備、臨床決策支援
  • 執法:危險預測、證據評估
  • 移民:簽證申請評估、庇護申請

第三級:有限風險(Limited Risk)— 透明度義務

必須讓使用者知道他們在與 AI 互動:

  • 聊天機器人必須揭露 AI 身份
  • Deepfake 內容必須標示

第四級:最低風險(Minimal Risk)— 自願遵守

大多數 AI 應用(AI 遊戲、垃圾信過濾等)屬於此類,鼓勵但不強制遵守自律準則。

台灣 AI 治理框架

台灣在 AI 治理方面主要有兩個層面:

AI 基本法草案(進行中) 台灣行政院推動的 AI 治理基礎法規,核心原則包含:

  • 以人為本:AI 應服務人類福祉,不得傷害人類尊嚴
  • 公平透明:AI 決策應可解釋,避免歧視
  • 安全可信:AI 系統應具備足夠的安全性與可靠性
  • 責任歸屬:明確 AI 系統開發者、部署者、使用者的責任

個人資料保護法(PDPA)對 AI 的約束 台灣的個資法雖非專為 AI 設計,但對 AI 應用有直接影響:

  • AI 系統若使用個人資料訓練,必須符合蒐集時的目的
  • 不得超出蒐集當時的同意範圍使用資料
  • 敏感性個人資料(種族、健康、生物特徵)有更嚴格的規範
  • 當事人有權要求說明自動化決策的邏輯

演算法偏差的四種來源

理解偏差來源是 iPAS 考試的重要考點:

1. 歷史偏差(Historical Bias) 訓練資料反映了過去社會的不平等。例如:用過去 20 年的法院判決訓練的 AI,可能會複製過去司法系統中的種族偏見。

2. 代表性偏差(Representation Bias) 訓練資料的組成比例不均衡,導致某些族群的預測準確率較低。例如:人臉辨識系統主要用歐美白人資料訓練,對亞洲人或深膚色人士的辨識率明顯較低。

3. 測量偏差(Measurement Bias) 用來衡量目標變數的指標本身帶有偏差。例如:用「再犯率」預測犯罪風險,但再犯率可能受到警力部署地點的影響(多警力地區逮捕率較高),並非反映真實的再犯傾向。

4. 評估偏差(Evaluation Bias) 在模型評估階段,若測試集不具代表性,可能低估特定族群的錯誤率。例如:整體準確率 95%,但對少數族群的準確率只有 70%。

負責任 AI 的六大原則

微軟、Google、IBM 等科技龍頭都提出了各自的「負責任 AI」框架,雖然表述略有不同,但核心原則高度重疊:

原則 定義 實務措施
公平(Fairness) AI 不應歧視特定群體 定期偏差稽核、多元訓練資料
可靠(Reliability) AI 行為應一致且可預期 嚴格測試、邊緣案例覆蓋
隱私(Privacy) 保護個人資料與隱私權 資料最小化、差分隱私技術
包容(Inclusiveness) AI 服務應涵蓋所有族群 無障礙設計、多語言支援
透明(Transparency) AI 的運作應可理解與解釋 可解釋 AI(XAI)、決策說明
當責(Accountability) 明確 AI 錯誤的責任歸屬 人工監督、申訴機制

應用場景

場景 主要倫理風險 適用法規 建議措施
AI 徵才履歷篩選 性別、年齡、種族偏差 就業歧視法、歐盟 AI Act 高風險 定期偏差稽核、人工複核
銀行信貸 AI 評分 種族、地區間接歧視 PDPA、歐盟 AI Act 高風險 可解釋性要求、申訴管道
醫療 AI 診斷輔助 族群準確率差異、過度依賴 醫療器材法、個資法 醫師最終決策、持續監測
公共場所人臉辨識 隱私侵犯、錯誤識別 歐盟 AI Act 禁止/高度限制 需有明確法律授權
教育 AI 學習評估 家庭背景偏差、標籤化 個資法(兒童資料特別保護) 多元評估指標、家長知情同意
AI 新聞內容生成 虛假訊息、著作權 媒體法、著作權法 標示 AI 生成內容
社群媒體內容推薦 過濾泡沫、情緒操控 歐盟數位服務法(DSA) 演算法透明度、使用者控制

常見誤區

誤區 1:「AI 是客觀的,不會有偏見」

這是最危險的誤解。AI 模型是從人類創造的資料中學習的,人類的偏見、歷史的不平等都會被編碼進模型。更危險的是,AI 的偏見往往披著「數據」和「演算法」的外衣,看起來客觀且科學,反而比人類決策更難被質疑。

有研究顯示,人們對 AI 做出的決定更傾向接受(即使有偏差),因為「電腦說的」感覺更客觀。這種「自動化偏見(Automation Bias)」讓 AI 的歧視問題更難被發現和糾正。

對策:在高風險應用中,不能假設 AI 是客觀的,必須建立定期的偏差稽核機制,主動去量化模型對不同族群的效果差異。

誤區 2:「只要符合歐盟 AI Act 就萬事 OK」

歐盟 AI Act 是目前最完整的 AI 法規,但它是「最低標準」而非「完整的倫理框架」。法規告訴你什麼不能做(禁止)和什麼必須做(高風險合規),但沒有告訴你如何做才能真正尊重使用者、建立信任。

此外,台灣企業需要注意的法規不只有歐盟法:

  • 若服務涉及歐盟公民,需遵守 AI Act 和 GDPR
  • 台灣境內的資料使用需符合 PDPA(個資法)
  • 特定行業(金融、醫療)有額外的主管機關規範
  • 政府採購 AI 系統可能有額外的公共利益要求

一個合規的 AI 系統不等於一個負責任的 AI 系統,企業應把合規視為起點而非終點。

誤區 3:「可解釋 AI(XAI)就是展示決策過程」

可解釋 AI 不只是「讓人看到 AI 怎麼計算的」,而是要讓不同層次的受眾能夠理解 AI 的決策:

  • 給技術人員:特徵重要性排名(Feature Importance)、SHAP 值、模型架構圖
  • 給業務人員:「這份申請被拒絕,主要因素是負債比例偏高和近期逾期紀錄」
  • 給一般使用者:「您的貸款申請未通過,您可以透過以下方式提升評分」

法規(特別是 GDPR 和歐盟 AI Act)中的「可解釋性」要求,更偏向「給一般使用者的解釋」——即使用者有權利知道 AI 為何做出影響他們的決定,而這種解釋必須是讓非技術背景的普通人能夠理解的。


小練習

練習 1:歐盟 AI Act 分類(模擬考題)

請將以下 AI 應用依歐盟 AI Act 的風險等級分類:

(a) 醫院採用的 AI 放射科影像輔助診斷系統 (b) 智慧音箱的語音辨識功能 (c) 市政府在廣場安裝的即時人臉辨識系統(用於一般監控) (d) 大學入學申請的 AI 篩選系統 (e) 電商網站的商品推薦演算法

練習 2:偏差分析(模擬情境題)

某銀行導入 AI 信貸評分系統後,發現以下數據:

族群 申請件數 核准率
都市地區申請者 5,000件 72%
農村地區申請者 800件 43%

請問:(a) 這個情況可能反映了哪種偏差?(b) 你會建議銀行採取哪些措施來調查和改善?

查看答案 **練習 1 解答:** (a) 醫院 AI 放射科影像系統 → **高風險(High Risk)** 屬於「醫療設備和臨床決策支援」類別,需要符合嚴格合規要求,包括臨床驗證、技術文件、人工監督機制。 (b) 智慧音箱語音辨識 → **最低風險(Minimal Risk)** 一般消費性電子產品,不涉及高風險決策,屬於自願遵守自律準則的範疇。 (c) 廣場即時人臉辨識(一般監控)→ **不可接受風險(Unacceptable Risk)** 這正是歐盟 AI Act 禁止的典型案例。在公共場所進行非執法目的的即時人臉辨識,侵犯了公民的匿名行動自由,被列為完全禁止。 (d) 大學入學 AI 篩選系統 → **高風險(High Risk)** 屬於「教育和培訓」類別,直接影響個人的重要機會,需要可解釋性、偏差評估和人工監督。 (e) 電商商品推薦演算法 → **最低風險(Minimal Risk)** 一般商業推薦系統,決策影響有限(頂多看到不感興趣的推薦),屬於低管制範疇。 --- **練習 2 解答:** **(a) 可能的偏差類型:** 這個情況可能同時存在多種偏差: - **歷史偏差**:農村地區申請者的歷史信貸紀錄可能因為過去的金融排除(缺乏銀行分行、信貸機會少)而使信用評分偏低,模型學習了這個不公平的歷史模式 - **代表性偏差**:訓練資料中農村申請者樣本數較少(800 vs 5,000),模型對農村申請者的預測可能不夠精準 - **測量偏差**:若評分系統使用「信用卡持有數量」、「投資帳戶」等都市居民更容易擁有的特徵,可能間接歧視農村申請者 **(b) 建議改善措施:** 1. **偏差稽核**:詳細分析農村申請者被拒絕的主要原因,確認是風險因素差異還是系統性偏差 2. **分組效能評估**:計算模型對兩組申請者的精確率(Precision)和召回率(Recall),確認是否有族群間的效能差異 3. **特徵審查**:檢視模型使用的特徵是否包含與地理位置高度相關的代理變數(Proxy Variables) 4. **補充資料**:增加農村地區申請者的歷史資料,改善模型對此族群的學習 5. **建立申訴機制**:讓被拒絕的申請者能夠獲得解釋並有申訴管道 6. **定期監控**:建立持續監測機制,追蹤不同族群的核准率趨勢

關鍵字自我檢核

✅ AI ethics ✅ EU AI Act ✅ responsible AI ✅ algorithmic bias ✅ explainability ✅ fairness ✅ transparency ✅ GDPR ✅ PDPA個資法 ✅ 台灣AI治理 ✅ AI governance ✅ high-risk AI ✅ prohibited AI ✅ 歐盟AI分類 ✅ 風險等級 ✅ 演算法透明度