M10.03|AI 倫理與法規
台灣 AI 基本法、歐盟 AI Act、負責任 AI — 合規不只是義務,更是競爭優勢
本講學習重點
歐盟 AI Act 四級:不可接受風險→禁止;高風險→嚴格規範;有限風險→透明度義務;最低風險→自願
台灣 AI 基本法草案強調:以人為本、公平透明、安全可信、責任歸屬
偏差來源:歷史偏差、代表性偏差、測量偏差、評估偏差
XAI(可解釋 AI)是高風險應用的法規要求,如信貸、醫療、人事
負責任 AI 六原則:公平、可靠、隱私、包容、透明、當責
PDPA 個資法要求 AI 使用個人資料需有特定合法依據
人臉辨識是歐盟 AI Act 的高度管制領域
🎙️ Podcast(中文)
一句話搞懂
AI 倫理與法規是「讓 AI 做對的事、以對的方式做」的制度框架:歐盟用 AI Act 依風險等級立法管制,台灣用 AI 基本法草案建立治理原則,企業則用「負責任 AI」框架自律。iPAS 考試中,這個主題近年出題比重大幅上升,特別是偏差、可解釋性、資料隱私這三個核心概念,幾乎每屆必考。
白話解說
為什麼 AI 需要倫理與法規?
2016 年,Amazon 測試一個 AI 履歷篩選系統,訓練後發現它會系統性地給女性候選人較低的評分。原因是訓練資料來自過去 10 年的錄用紀錄,而這些紀錄中男性佔絕大多數——AI 就「學」到了「男性候選人更好」的偏見。Amazon 最終放棄了這個系統。
類似的案例每天都在發生:AI 信貸系統對少數族裔放款較少、AI 醫療診斷系統對深膚色患者準確率較低、AI 人臉辨識系統對亞洲臉孔的識別率明顯落後。這些不是技術 Bug,而是人類社會偏見被「編碼」進了 AI 系統。
這就是為什麼我們需要 AI 倫理和法規——不是要限制 AI,而是要確保 AI 以公平、透明、有責任的方式為人類服務。
歐盟 AI Act:全球首部 AI 綜合法規
歐盟 AI Act(EU AI Act)於 2024 年正式生效,是全球第一部針對 AI 的綜合性法律,採用風險分級管理的架構:
第一級:不可接受風險(Unacceptable Risk)— 直接禁止
以下 AI 應用被完全禁止在歐盟境內使用:
- 公共場所的即時遠端人臉辨識(限執法特定例外)
- 操弄人類潛意識的 AI(例如:不知情情況下的情緒操控)
- 基於行為的社會評分(Social Scoring)
- 利用特定弱勢群體的 AI(如針對兒童、殘疾人的剝削性系統)
第二級:高風險(High Risk)— 嚴格規範
可以使用,但需要符合嚴格的合規要求(風險評估、人工監督、技術文件):
- 教育:入學篩選、學習成效評估
- 就業:招募、績效評估、晉升決定
- 金融:信貸評分、保險定價
- 醫療:醫療設備、臨床決策支援
- 執法:危險預測、證據評估
- 移民:簽證申請評估、庇護申請
第三級:有限風險(Limited Risk)— 透明度義務
必須讓使用者知道他們在與 AI 互動:
- 聊天機器人必須揭露 AI 身份
- Deepfake 內容必須標示
第四級:最低風險(Minimal Risk)— 自願遵守
大多數 AI 應用(AI 遊戲、垃圾信過濾等)屬於此類,鼓勵但不強制遵守自律準則。
台灣 AI 治理框架
台灣在 AI 治理方面主要有兩個層面:
AI 基本法草案(進行中) 台灣行政院推動的 AI 治理基礎法規,核心原則包含:
- 以人為本:AI 應服務人類福祉,不得傷害人類尊嚴
- 公平透明:AI 決策應可解釋,避免歧視
- 安全可信:AI 系統應具備足夠的安全性與可靠性
- 責任歸屬:明確 AI 系統開發者、部署者、使用者的責任
個人資料保護法(PDPA)對 AI 的約束 台灣的個資法雖非專為 AI 設計,但對 AI 應用有直接影響:
- AI 系統若使用個人資料訓練,必須符合蒐集時的目的
- 不得超出蒐集當時的同意範圍使用資料
- 敏感性個人資料(種族、健康、生物特徵)有更嚴格的規範
- 當事人有權要求說明自動化決策的邏輯
演算法偏差的四種來源
理解偏差來源是 iPAS 考試的重要考點:
1. 歷史偏差(Historical Bias) 訓練資料反映了過去社會的不平等。例如:用過去 20 年的法院判決訓練的 AI,可能會複製過去司法系統中的種族偏見。
2. 代表性偏差(Representation Bias) 訓練資料的組成比例不均衡,導致某些族群的預測準確率較低。例如:人臉辨識系統主要用歐美白人資料訓練,對亞洲人或深膚色人士的辨識率明顯較低。
3. 測量偏差(Measurement Bias) 用來衡量目標變數的指標本身帶有偏差。例如:用「再犯率」預測犯罪風險,但再犯率可能受到警力部署地點的影響(多警力地區逮捕率較高),並非反映真實的再犯傾向。
4. 評估偏差(Evaluation Bias) 在模型評估階段,若測試集不具代表性,可能低估特定族群的錯誤率。例如:整體準確率 95%,但對少數族群的準確率只有 70%。
負責任 AI 的六大原則
微軟、Google、IBM 等科技龍頭都提出了各自的「負責任 AI」框架,雖然表述略有不同,但核心原則高度重疊:
| 原則 | 定義 | 實務措施 |
|---|---|---|
| 公平(Fairness) | AI 不應歧視特定群體 | 定期偏差稽核、多元訓練資料 |
| 可靠(Reliability) | AI 行為應一致且可預期 | 嚴格測試、邊緣案例覆蓋 |
| 隱私(Privacy) | 保護個人資料與隱私權 | 資料最小化、差分隱私技術 |
| 包容(Inclusiveness) | AI 服務應涵蓋所有族群 | 無障礙設計、多語言支援 |
| 透明(Transparency) | AI 的運作應可理解與解釋 | 可解釋 AI(XAI)、決策說明 |
| 當責(Accountability) | 明確 AI 錯誤的責任歸屬 | 人工監督、申訴機制 |
應用場景
| 場景 | 主要倫理風險 | 適用法規 | 建議措施 |
|---|---|---|---|
| AI 徵才履歷篩選 | 性別、年齡、種族偏差 | 就業歧視法、歐盟 AI Act 高風險 | 定期偏差稽核、人工複核 |
| 銀行信貸 AI 評分 | 種族、地區間接歧視 | PDPA、歐盟 AI Act 高風險 | 可解釋性要求、申訴管道 |
| 醫療 AI 診斷輔助 | 族群準確率差異、過度依賴 | 醫療器材法、個資法 | 醫師最終決策、持續監測 |
| 公共場所人臉辨識 | 隱私侵犯、錯誤識別 | 歐盟 AI Act 禁止/高度限制 | 需有明確法律授權 |
| 教育 AI 學習評估 | 家庭背景偏差、標籤化 | 個資法(兒童資料特別保護) | 多元評估指標、家長知情同意 |
| AI 新聞內容生成 | 虛假訊息、著作權 | 媒體法、著作權法 | 標示 AI 生成內容 |
| 社群媒體內容推薦 | 過濾泡沫、情緒操控 | 歐盟數位服務法(DSA) | 演算法透明度、使用者控制 |
常見誤區
誤區 1:「AI 是客觀的,不會有偏見」
這是最危險的誤解。AI 模型是從人類創造的資料中學習的,人類的偏見、歷史的不平等都會被編碼進模型。更危險的是,AI 的偏見往往披著「數據」和「演算法」的外衣,看起來客觀且科學,反而比人類決策更難被質疑。
有研究顯示,人們對 AI 做出的決定更傾向接受(即使有偏差),因為「電腦說的」感覺更客觀。這種「自動化偏見(Automation Bias)」讓 AI 的歧視問題更難被發現和糾正。
對策:在高風險應用中,不能假設 AI 是客觀的,必須建立定期的偏差稽核機制,主動去量化模型對不同族群的效果差異。
誤區 2:「只要符合歐盟 AI Act 就萬事 OK」
歐盟 AI Act 是目前最完整的 AI 法規,但它是「最低標準」而非「完整的倫理框架」。法規告訴你什麼不能做(禁止)和什麼必須做(高風險合規),但沒有告訴你如何做才能真正尊重使用者、建立信任。
此外,台灣企業需要注意的法規不只有歐盟法:
- 若服務涉及歐盟公民,需遵守 AI Act 和 GDPR
- 台灣境內的資料使用需符合 PDPA(個資法)
- 特定行業(金融、醫療)有額外的主管機關規範
- 政府採購 AI 系統可能有額外的公共利益要求
一個合規的 AI 系統不等於一個負責任的 AI 系統,企業應把合規視為起點而非終點。
誤區 3:「可解釋 AI(XAI)就是展示決策過程」
可解釋 AI 不只是「讓人看到 AI 怎麼計算的」,而是要讓不同層次的受眾能夠理解 AI 的決策:
- 給技術人員:特徵重要性排名(Feature Importance)、SHAP 值、模型架構圖
- 給業務人員:「這份申請被拒絕,主要因素是負債比例偏高和近期逾期紀錄」
- 給一般使用者:「您的貸款申請未通過,您可以透過以下方式提升評分」
法規(特別是 GDPR 和歐盟 AI Act)中的「可解釋性」要求,更偏向「給一般使用者的解釋」——即使用者有權利知道 AI 為何做出影響他們的決定,而這種解釋必須是讓非技術背景的普通人能夠理解的。
小練習
練習 1:歐盟 AI Act 分類(模擬考題)
請將以下 AI 應用依歐盟 AI Act 的風險等級分類:
(a) 醫院採用的 AI 放射科影像輔助診斷系統 (b) 智慧音箱的語音辨識功能 (c) 市政府在廣場安裝的即時人臉辨識系統(用於一般監控) (d) 大學入學申請的 AI 篩選系統 (e) 電商網站的商品推薦演算法
練習 2:偏差分析(模擬情境題)
某銀行導入 AI 信貸評分系統後,發現以下數據:
| 族群 | 申請件數 | 核准率 |
|---|---|---|
| 都市地區申請者 | 5,000件 | 72% |
| 農村地區申請者 | 800件 | 43% |
請問:(a) 這個情況可能反映了哪種偏差?(b) 你會建議銀行採取哪些措施來調查和改善?