← M01 AI 思維與治理 M01 AI 思維與治理 iPAS L11102, L12303, L21203, L23402

M01.04|人機協作三種監督:Human-in/on/over-the-loop

不是「AI 取代人」或「人管 AI」,而是找到對的合作模式

L1-AI基礎知識-人機協作模式 L1-AI應用規劃-監督機制設計 L2-AI技術應用-AI系統設計 L2-AI系統部署-安全與監控
人機協作 Human-in-the-loop 監督模式
📋

本講學習重點

三種監督模式是什麼?
什麼時候該用哪種模式?
選錯監督模式會怎樣?
監督模式能動態調整嗎?

In-the-loop人決策、On-the-loop人監看、Over-the-loop人定規則

依錯誤後果嚴重度:越嚴重人參與越多

高風險用太少監督會出大事,低風險用太多監督會拖垮效率

可以,應隨信任度與法規環境動態升降級

📌 根據錯誤後果的嚴重程度選擇對應的人機協作模式,才能兼顧安全與效率。
人機協作三種監督:Human-in/on/over-the-loop

🎙️ Podcast(中文)

0:00 / 0:00

一句話搞懂

人跟 AI 的合作模式不是只有「全部交給 AI」或「全部人來做」,而是根據風險高低,選擇「人決定、AI 輔助」、「AI 執行、人監看」或「人定規則、AI 自主運作」三種模式。

白話解說

想像三種不同的開車方式。第一種:你自己開車,但車上有導航系統建議路線,最終轉不轉彎你自己決定 — 這就是 Human-in-the-loop(人在迴圈中),每一個關鍵決策都由人做,AI 只是提供建議。第二種:你開啟了車道維持和自動跟車功能,車子自己在開,但你的手放在方向盤上隨時準備接手 — 這就是 Human-on-the-loop(人在迴圈上),AI 負責執行,人負責監看,異常時介入。第三種:你設定好目的地和「不走收費道路」的條件,然後完全交給自動駕駛 — 這就是 Human-over-the-loop(人在迴圈外),人只設定目標和邊界,AI 在框架內自主運作。

這三種模式沒有好壞之分,只有「適不適合」的差別。關鍵判斷標準是:如果 AI 犯錯,後果有多嚴重? 後果越嚴重,人的參與程度就要越高。醫療診斷、司法判決、貸款審批這類「錯了會改變一個人人生」的場景,必須用 Human-in-the-loop。內容推薦、廣告投放這類「錯了頂多浪費一點預算」的場景,可以用 Human-over-the-loop。

很多 AI 專案失敗不是因為技術不行,而是選錯了監督模式。要不就是在高風險場景用了太少的人類監督(結果出大事),要不就是在低風險場景用了太多人類審核(結果效率比不用 AI 還差)。

應用場景

場景一:醫院放射科導入 AI 影像判讀 AI 系統掃描 X 光片後標記出疑似病灶區域,但最終診斷必須由放射科醫師確認。這是典型的 Human-in-the-loop — AI 先篩選、標記,人類做最終判斷。這個設計的好處是:AI 幫醫師省去逐張掃描的時間,讓醫師把精力集中在真正需要判斷的影像上。但最終蓋章的一定是醫師,不是 AI。

場景二:電商平台的商品推薦系統 推薦系統根據用戶行為自動推薦商品,營運團隊設定了幾條規則:不推薦違禁品、不對未成年推薦成人商品、同一商品不連續推薦超過三次。在這些規則內,AI 自主運作。營運團隊每週看一次推薦效果報告,必要時調整規則。這是 Human-over-the-loop 的做法,適合這種「錯了不會出大事、但需要規模化運作」的場景。

監督模式選擇框架

判斷維度 Human-in-the-loop Human-on-the-loop Human-over-the-loop
錯誤後果 嚴重且不可逆 中等,可補救 輕微,可容忍
決策速度需求 可以等人決定 需要即時但可中斷 必須即時大量處理
法規要求 法規要求人類決策 法規要求人類監督 無特殊法規要求
典型場景 醫療診斷、司法量刑 自動駕駛、工廠品管 內容推薦、垃圾郵件過濾
AI 角色 建議者 執行者(受監督) 自主代理
人的角色 決策者 監督者 規則制定者

常見誤區

  1. 「Human-in-the-loop 最安全,全部都用這個就好」 — 如果每一封垃圾郵件都要人類審核才能刪除,你的信箱一天就爆了。過度監督會讓 AI 完全失去效率優勢,而且當人類要審核的量太大時,反而會因為疲勞而漏看真正重要的案例,這叫做「警報疲勞」(Alert Fatigue)。

  2. 「我們有人在監督,所以 AI 出錯不是我們的責任」 — 「有人在看」不等於「有效監督」。如果監督者沒有足夠的專業知識來判斷 AI 的輸出是否正確,或者 AI 的輸出速度快到人根本來不及審查,那這個監督就是形式上的。設計監督機制時,必須確保監督者有能力、有時間、有權力去否決 AI 的決定。

  3. 「上線後就不用再調整監督模式了」 — 監督模式應該隨著信任度變化而調整。一個新上線的 AI 系統可能先用 in-the-loop 模式觀察幾個月,確認準確率穩定後再切換到 on-the-loop。反之,如果法規環境變了或 AI 表現退化,也應該把監督等級拉高。

小練習

  1. 模式判斷:以下場景分別適合哪種監督模式?(a) AI 自動生成社群媒體貼文草稿 (b) AI 在工廠產線上即時偵測瑕疵品並自動剔除 (c) AI 協助法官計算刑期建議。請說明你的判斷理由。

  2. 設計練習:你的公司想用 AI 來自動回覆客戶的退款申請。退款金額從 100 元到 100,000 元不等。請設計一個分級監督機制 — 什麼條件下用 Human-over-the-loop?什麼條件下升級為 Human-in-the-loop?判斷的依據是什麼?

點擊查看參考答案

練習 1:三場景監督模式

| 場景 | 監督模式 | 理由 | |------|---------|------| | (a) 社群貼文草稿 | **Human-in-the-loop** | 品牌形象風險高,需人審核後才發布 | | (b) 工廠瑕疵偵測 | **Human-on-the-loop** | 產線速度快不可能逐件人判,需即時監看 | | (c) 法官刑期建議 | **Human-in-the-loop** | 影響人身自由,後果不可逆,法官必須最終裁定 |

練習 2:退款申請三級監督設計

| 金額門檻 | 監督模式 | 做法 | |---------|---------|------| | ≤ 1,000 元 | **Over-the-loop** | AI 自動核准退款,每日彙整報表 | | 1,000~10,000 元 | **On-the-loop** | AI 處理 + 異常案例自動暫停通知主管 | | ≥ 10,000 元 | **In-the-loop** | AI 僅提供建議,人工手動核准 | > **例外規則**:疑似詐騙模式(如新帳號大量退款)→ 不論金額一律 In-the-loop。核心邏輯:金額越高、風險越大,人類參與度越高。

關鍵字自我檢核

✅ 三種監督 ✅ 風險對應 ✅ 協作設計