M05.09|生成式 AI 的倫理爭議:著作權、深偽、工作取代
AI 生成的文章算誰寫的?AI 換臉影片算不算犯罪?
本講學習重點
著作權議題兩個層面: 1. 訓練資料:以數十億圖文訓練模型,是否侵犯原作者著作權? - 美國判例:TDM(文字與資料挖掘)有限度合理使用,但訴訟仍持續 - Getty Images vs Stability AI:核心爭點是商業使用訓練是否合理使用 - 歐盟 AI Act:要求 AI 廠商揭露訓練資料來源 2. 生成物歸屬:AI 生成的內容著作權誰的? - 台灣:著作人須為自然人/法人,AI 無法成為著作人,純 AI 生成物無著作權保護 - 美國:USCO 確立純 AI 生成不受保護,人類有創意貢獻的部分可受保護 Deepfake 危害類型: - 非合意性色情(NCII, Non-Consensual Intimate Imagery):最普遍的惡用,96% 受害者為女性 - 政治虛假信息:政治人物假視頻,干擾選舉 - 詐騙攻擊:偽冒企業高管聲音/視訊授權轉帳(香港 2024 年案例:損失 2 億港元) - 身分盜竊:偽造駕照/護照照片 台灣法律回應: - 《刑法》第 310 條(誹謗罪)、第 315-1 條(妨害秘密罪) - 2023 年《性別平等教育法》修正:將深偽色情納入校園規範 - 《數位中介服務法》草案(尚未通過) 工作取代預測(麥肯錫 2023): - 高風險:資料輸入、翻譯、基礎文案、基礎客服、標準化報告生成 - 中風險:初級程式設計、財務分析、法律文件初審 - 低風險:創意決策、複雜談判、情緒勞動、物理操作、跨領域策略判斷
🎙️ Podcast(中文)
一句話搞懂
生成式 AI 同時帶來了三組難解的倫理與法律問題:AI 用他人作品訓練是否侵權、AI 創作的著作權歸誰、Deepfake 如何被用來傷害人、以及 AI 大規模取代工作時社會應如何因應——這些問題正在挑戰我們既有的法律框架和社會契約。
白話解說
著作權迷局:訓練資料的合法性爭議
生成式 AI 的訓練必須依賴海量的資料。OpenAI 的 GPT 系列用了數千億個網路文字 token;Stable Diffusion 的訓練集 LAION-5B 包含 58 億張從網路爬取的圖文配對。問題是:這些資料中有大量享有著作權的作品——出版書籍、攝影作品、藝術創作、新聞文章——在爬取和訓練時,AI 公司通常沒有取得授權,也沒有支付報酬。
美國的法律戰場:多起重量級訴訟正在進行中。紐約時報在 2023 年底以著作權侵犯為由起訴 OpenAI 和 Microsoft,主張其文章被大量用於訓練且未獲授權,初步估算損害賠償可能達數十億美元。Getty Images vs Stability AI 的訴訟焦點在於:Getty 庫中的攝影作品被用於訓練 Stable Diffusion,甚至有生成圖像中出現了 Getty 浮水印的模糊殘影,作為「曾見過這些圖片」的間接證據。美國法院尚未對這些案件做出最終裁決,但核心法律問題是:AI 訓練是否構成著作權法下的「合理使用(Fair Use)」?
合理使用的認定需要考量四個因素:使用目的和性質(商業 vs 非商業)、著作物的性質、使用量和實質性、對市場的影響。AI 公司的辯護論點主要是「轉換性使用」(transformative use)——訓練後的模型不是在「複製」原始作品,而是學習了統計規律,創造了全新的東西。原告方的反駁是:訓練資料的大規模商業使用已經影響了原作者的版稅市場。這個爭議目前沒有定論,最終判決將對整個 AI 產業的訓練資料策略產生深遠影響。
台灣現況:台灣《著作權法》目前沒有專門針對 AI 訓練的明確規定,智財局(TIPO)在 2023-2024 年陸續發布說明文件,表示「以研究目的進行的 TDM(文字資料採掘)」在合理使用條款下可能受到保護,但商業性的大規模訓練資料蒐集仍是灰色地帶。台灣企業使用外部 API 進行訓練前,應謹慎評估訓練資料的來源和授權狀態。
AI 生成物的著作權:空白地帶中的商業風險
與訓練資料問題同樣棘手的是:由 AI 生成的內容,著作權屬於誰?
台灣《著作權法》第 3 條明確規定著作人是指「實際從事著作之人」,而根據著作權主管機關(文化部)的一貫解釋,著作人必須是自然人(個人)或依法設立的法人組織(公司),AI 本身不具有法律人格,不能成為著作人。因此,純粹由 AI 自動生成的文字、圖像、音樂在台灣法律下沒有著作權保護,任何人都可以自由使用這些內容,原始使用者無法主張排他權利。
美國著作權局(USCO)在 2023-2024 年的一系列行政裁決中確立了類似立場:純 AI 生成的元素不受著作權保護,但若人類在創作過程中有「足夠的選擇、配置和創意安排(sufficient creative control)」,這些人類貢獻的部分可以受到著作權保護。例如,一個藝術家使用 AI 工具生成素材,然後在數位後製中大量加入自己的創意修改,最終作品可能部分受到保護,但純 AI 生成的底圖部分不受保護。這個「人類貢獻比例」的判斷標準仍然模糊,正在個案中逐步發展。
對企業而言,這帶來一個實際風險:使用 AI 工具產出的廣告素材、行銷文案、產品圖像,在法律上可能沒有著作權保護,競爭對手可以合法地使用相同的或近似的 AI 輸出,企業無法主張侵權。這也意味著,如果企業希望保持對其行銷素材的獨特性,不能完全依賴 AI 生成,必須加入有意義的人類創意貢獻。
Deepfake:技術濫用的三個惡用向量
深偽技術(Deepfake)是指利用 AI(特別是 GAN 和擴散模型)生成或合成虛假的影像、語音、影片內容,讓其中的人物「做出」或「說出」他們實際上沒有做過的事情。技術本身並不邪惡——電影特效、虛擬試衣、語言學習都有正當應用——但惡意使用已造成嚴重的社會危害。
非合意性親密影像(NCII) 是目前最普遍的 Deepfake 濫用,也是對個人傷害最直接的。攻擊者用受害者的公開照片(從社群媒體取得)生成虛假的色情影片或圖像,進行騷擾、敲詐或報復。根據相關研究,超過 96% 的 Deepfake 色情受害者為女性,藝人、網紅、政治人物尤其是高風險對象,但普通人也愈來愈多受到波及。台灣於 2023 年已將 Deepfake 色情內容納入《性別平等教育法》的規範範圍,但現行《刑法》框架在處理非色情類 Deepfake 時仍有法律漏洞。
政治操控與虛假信息:AI 生成的政治人物假影片正在成為選舉干預的工具。2024 年台灣總統大選前後,就出現了多起利用 AI 合成技術製作的候選人「發言」影片在社群媒體上流傳。這類深偽影片的危害在於:即使事後澄清,初次看到的印象往往已形成,更危險的是在選舉前幾天短暫流傳,讓選民無時間辨別真偽。美國、英國、歐盟已相繼出台在選舉廣告中強制標示 AI 生成內容的法規,台灣《選舉罷免法》的配套修正正在討論中。
企業詐騙與社會工程攻擊:2024 年初,香港一家跨國企業的財務員工因參加視訊會議,被 Deepfake 偽造的「CFO」和多名同事形象說服,授權轉帳 2 億港元(約 8 億台幣),事後才發現整場會議中的「同事」全是 AI 合成影像。這類攻擊利用了視訊通話的信任感,超越了傳統網路釣魚的危害規模。語音克隆技術也被用於電話詐騙:用親人的聲音打電話「緊急求救」,誘使家屬匯款。
工作取代:恐懼與現實的落差
「AI 會讓大量人類失業」是最廣泛被討論的社會恐懼,但現實比「全面取代」的末日論更複雜也更微妙。根據麥肯錫全球研究院(2023)的報告,到 2030 年,在現有工作中約 30% 的任務可以被自動化技術執行,但這不等同於 30% 的工作會消失——每份工作通常由多種任務組成,AI 可能取代其中的部分任務,而讓人類專注在其他任務上。
最高替代風險的工作類型:大量重複性資料處理(資料輸入、簡單表格整理)、標準化翻譯(尤其是短篇、領域固定的翻譯)、基礎客服問答(常見問題的腳本化回應)、基礎行銷文案生成(制式的電商產品描述)、標準化財務報表摘要。這些工作的共同特徵是:任務邊界清晰、成功標準可量化、知識需求相對固定。
相對安全的工作類型:需要複雜創意判斷(廣告創意總監、建築師的設計決策)、高情緒智商互動(社工、心理諮商師、談判專家)、需要物理操作靈活性(水電工、外科手術的精細操作)、跨領域策略整合(CEO、政策規劃師)、以及需要問責制的決策者角色(法官、董事會成員)。
歷史上,每一次重大技術革命都帶來工作形態的重組,而非純粹的工作消滅。蒸汽機淘汰了馬車夫,但創造了鐵路工人;個人電腦淘汰了打字員,但創造了軟體工程師。生成式 AI 最可能的結果,不是「人類不再工作」,而是「工作的內容發生質變」——高度重複的部分由 AI 執行,人類的價值轉向判斷、關係、創意、責任承擔。然而,這個轉型過程對特定族群(中低技能、中年、處於職業轉型期的工作者)帶來的衝擊是真實且不平等的,這是政策制定者必須正視的再培訓和社會保障問題。
台灣與國際的監管回應
歐盟《AI 法案(EU AI Act)》是目前全球最全面的 AI 監管法律,於 2024 年正式生效,2026 年全面施行。它對生成式 AI 有幾個重要規定:所有生成式 AI 模型必須揭露訓練資料來源、AI 生成的文字/圖像/影音必須機器可辨識地標示(watermarking)、Deepfake 必須明確標示(有明確目的的藝術創作例外)、通用目的 AI 模型(GPAI)需做安全評估和系統性風險管理。
美國採取更謹慎的政策取向,傾向行業自律和自願性承諾,而非立法管制。2023 年拜登政府的 AI 行政命令要求各聯邦機構評估 AI 風險,但沒有強制約束力;2024 年川普政府更明確表態反對過度監管,強調 AI 創新。
台灣目前尚無針對生成式 AI 的專門立法,現有的回應散落在各法律:智財局對著作權問題有行政解釋、個資法對訓練資料包含個人資料有規範、選罷法修正討論中、性別平等法修正已針對 Deepfake 色情。國科會在 2023 年底公布的「AI 基本法」草案(最終完成立法於 2024 年)確立了 AI 發展的基本原則,但仍屬框架性原則,缺乏具體的生成式 AI 規範細則。
應用場景
| 倫理議題 | 企業或個人面臨的具體情境 | 目前法律狀態 | 建議行動 |
|---|---|---|---|
| 訓練資料版權 | 企業想用客戶文件訓練內部模型 | 灰色地帶(需分析合約和授權範圍) | 諮詢法律意見,確認資料授權 |
| AI 生成物版權 | 廣告公司用 AI 生成的圖像作為素材 | 台灣:目前無著作權保護 | 加入人類創意元素,書面約定使用條件 |
| 員工使用 AI 創作申報 | 工程師用 GitHub Copilot 寫的代碼是否屬公司 | 各國不一,多數依雇傭合約 | 更新雇傭合約中的 AI 使用條款 |
| Deepfake 預防 | 公司高管的聲音/面孔可能被偽造用於詐騙 | 已有相關刑事法規,但舉證困難 | 建立多重身分驗證機制,培訓員工識別 |
| 學術誠信 | 學生使用 AI 完成作業/論文 | 各機構自行訂定規則 | 教師設計 AI 無法輕易完成的評量形式 |
| 員工 AI 工具使用政策 | 員工在工作中自行使用 ChatGPT 處理客戶資料 | 個資法、營業秘密法有規範 | 制定 AI 使用政策,訓練員工守規 |
| 媒體 AI 生成內容標示 | 新聞媒體使用 AI 寫作輔助 | 台灣目前無強制標示規定 | 主動採用自律標準,標示 AI 輔助 |
常見誤區
誤區一:使用 AI 工具就能迴避版權責任,因為「是 AI 生成的不是我抄的」
這是一個危險的誤解。即使最終輸出是由 AI 生成的,使用者對如何使用這個輸出仍然負有法律和倫理責任。如果你要求 AI「寫一首風格像王菲的歌」並將結果商業化,你可能面臨著作風格侵權的法律風險(雖然風格本身不受保護,但具體元素可能構成侵權);如果你要求 AI 重現某段文字並使用於商業目的,模型「記住」的訓練資料被高度還原呈現,可能構成直接侵權。更重要的是:AI 工具只是工具,決定如何使用輸出的是人,法律責任由使用者承擔,不能以「那是 AI 產生的」作為免責理由。
誤區二:Deepfake 識別技術(如 AI 偵測器)能可靠地辨別真假影像
目前的 Deepfake 偵測技術和生成技術之間,存在一場永無止境的軍備競賽。偵測工具確實存在並持續進步(如 Adobe 的 Content Authenticity Initiative、Microsoft 的 Video Authenticator),但它們的準確率在面對最新一代的生成模型時往往下降,因為生成技術在更新時會學習如何規避偵測特徵。在法庭或新聞報導中,不能僅依靠「AI 偵測工具說是真的」就認定影像真實性——這只是一個輔助參考,需要結合多重技術手段和人工審查。從個人角度,最可靠的「辨別」方法不是依賴技術工具,而是培養批判性媒體素養:對情緒激化、時機敏感、來源不明的影片保持懷疑,不輕易轉傳,先查核再分享。
誤區三:生成式 AI 會讓創意產業(設計師、作家、音樂人)全面失業
從目前(2025-2026 年)的實際就業市場數據看,這個預測過於悲觀。生成式 AI 確實改變了創意工作的執行方式——設計師花更多時間在策略方向和客戶溝通,少花時間在重複性的製作工作——但高水準的創意專業人才需求並未大幅萎縮,甚至部分領域(如 Prompt Engineer、AI 藝術總監、AI 訓練資料策展師)出現了新職缺。受衝擊最大的並非頂尖創意人才,而是中低端的、執行重複性任務的兼職或入門級職位(如免費圖庫攝影、批量廣告文案外包)。更準確的描述是:AI 工具降低了創意工作的「技術門檻」,讓更多人能做出「還不錯」的作品,但這也壓縮了「只是還不錯」的市場,讓真正出色的創意工作者的溢價更高。
小練習
練習一:著作權場景判斷
以下四個場景,請判斷各自可能面臨的著作權風險等級(高 / 中 / 低),並說明關鍵判斷依據:
場景 A:設計師用 Midjourney 生成一系列圖像,提示詞只有「beautiful landscape」,把生成的圖像用作公司內部簡報的封面。
場景 B:出版社用 Claude 把知名作家的三本暢銷小說「重新摘要和改寫」成一本 AI 版的閱讀精華,並以 99 元在網路書店上架。
場景 C:一個音樂人在 Suno.ai(AI 音樂生成平台)上輸入歌詞並指定「台語流行風格」,生成一首歌後上傳至串流平台收費收聽。
場景 D:研究人員用爬取的 50 萬篇中文維基百科文章訓練一個非商業用途的語言模型,並把模型開源發布。
點擊查看參考答案
練習一:著作權場景判斷
| 場景 | 風險等級 | 關鍵分析 | |------|---------|---------| | **A** 內部簡報封面 | **低** | 使用目的是非公開的內部用途(非商業傳播),Midjourney Pro 版允許商業使用,「beautiful landscape」是通用提示詞不針對特定藝術家風格,且不涉及人物或識別性元素。主要注意事項:確認使用的是 Midjourney Pro(而非免費版),免費版不允許商業使用。 | | **B** 小說改寫出售 | **極高** | 這是高度危險的做法。原著作者的著作權明確存在,未取得授權就「改寫」並商業銷售,是典型的著作權侵害(重製 + 改作 + 散布)。「AI 改寫」不能作為免責事由——使用 AI 工具改寫他人作品並販售,法律責任由出版社承擔。涉及賠償金額可能相當龐大(台灣著作權法最高可求償法定賠償金)。正確做法:取得原著作者或出版社的授權,並支付授權金。 | | **C** AI 生成歌曲上架 | **中** | 有兩個層面的問題:(1) 歌詞如果是音樂人自己寫的,歌詞有著作權;(2) AI 生成的旋律/音樂部分,在台灣目前法律下可能不受著作權保護(無法主張排他),但串流平台可以上架(只是你對旋律無法主張著作權,他人可能複製使用)。Suno.ai 的服務條款允許商業使用(需確認版本條款)。中等風險的原因:台灣對 AI 音樂著作權的解釋尚不明確,且如果「台語流行風格」被認定高度模仿了特定藝術家的風格,可能有相似性爭議。 | | **D** 非商業訓練資料 | **低至中** | 維基百科文章採用 CC BY-SA 授權,允許以相同授權方式修改和再發布(包含用於研究)。非商業用途、開源發布(CC BY-SA 或更寬鬆的授權)較符合維基百科的授權精神。主要注意事項:(1) 開源發布的模型授權必須相容維基百科的 CC BY-SA(不能更嚴格限制);(2) 若維基百科文章本身引用了有版權的資料,訓練資料中包含這些引用可能有次生風險;(3) 若未來將模型商業化,需重新評估授權合規性。 | > **核心判斷框架**:評估 AI 相關著作權風險時,先問三個問題:(1) 輸入給 AI 的素材,授權清楚嗎?(2) AI 輸出的內容,你計畫如何使用(商業/非商業、公開/內部)?(3) AI 生成物中是否有高度還原特定受保護作品的成分?三個問題的答案決定了風險等級。練習二:Deepfake 風險評估與應對
你是一家台灣科技公司的資安主管,CEO 是一位知名的公眾人物,近期有多起 Deepfake 詐騙新聞(假扮企業高管批准轉帳)。你需要提出一套「防 Deepfake 詐騙」的內部防護措施。
請設計:(1) 針對財務部門的 SOP(至少 3 項具體程序);(2) 如果員工在視訊中懷疑對方是 Deepfake,有哪些即時識別方法?(3) 萬一公司 CEO 的聲音/形象被用於詐騙,有哪些法律途徑可以追究?