大綱
Shadow AI(影子AI)
什麼是 Shadow AI?
Shadow AI(影子 AI)是指員工在未經 IT 部門或資安團隊核准的情況下,自行使用 AI 工具來完成工作任務。這些工具可能包括 ChatGPT、Claude、Gemini 等公開的生成式 AI 服務,或是嵌入在各種 SaaS 應用程式中的 AI 功能。
Shadow AI的成因
1.生產力誘因:生成式 AI 能大幅提升工作效率,員工自然傾向使用
2.低進入門檻:多數 AI 工具免費或低成本,無需 IT 協助即可使用
3.審批流程緩慢:正式導入 AI 工具的流程冗長,員工等不及便自行使用
4.缺乏明確政策:組織未制定清楚的 AI 使用規範,員工不知何者可用
5.隱性 AI 功能:許多已核准的 SaaS 工具悄悄加入 AI 功能,使用者不自覺就啟用了
對 AI 治理的影響
對 AI 治理的影響Shadow AI 使傳統治理框架失效——組織無法管理看不見的東西。它凸顯了治理必須從「禁止」轉向「疏導」,提供安全的替代方案比單純封鎖更有效。


Cost of a Data Breach Report 2025 , 2025/8/22

2024 Work Trend Index Annual Report, 2024/5/8
案例討論-Shadow AI
情境四:Shadow AI 使用問題
| 情境描述 資安團隊在例行網路流量監控中發現,過去三個月有大量連線至 ChatGPT、Claude 等公開 AI 服務。進一步調查發現,財富管理部門的理專們普遍使用這些工具來撰寫投資建議書、分析客戶財務狀況,甚至有人將客戶的完整資產明細貼入 AI 以產生個人化建議。該如何處理這個情況? |
Step 1:評估影響範圍 — 需要盤點哪些資訊?
| 請在此寫下你們的討論結果… |
Step 2:通報與組成專案小組
| 應通報對象 1. 2. 3. | 專案小組成員 1. 2. 3. |
Step 3:短期緊急措施 — 立即應採取什麼行動?
(提示:技術控制、通知員工、保留證據、法規評估)
| 請在此寫下你們的討論結果… |
Step 4:中長期治理措施
| 政策面 | 技術面 | 教育面 |
| 建議措施: | 建議措施: | 建議措施: |
| 延伸思考 發現員工使用 Shadow AI 時,應該以懲處還是教育為主?如何在「保護資料安全」與「支持員工提升效率」之間取得平衡? | ||
負責任AI原則(Responsible AI Principles)四個核心面向

Source: Introduction to Responsible AI Implement Ethical AI Using Python, 作者: Avinash Manure , Shaleen Bengani , Saravanan S
Evident AI 銀行指數-2025/10

1.Evident AI 銀行指數為整個銀行業 AI 的採用和成熟度提供基準。
2.該指數根據從數百萬個公開數據點中提取的 90 個單獨指標對北美、歐洲和亞洲 50 家最大的銀行進行評估。
3.該基準涵蓋了人工智慧能力的四大關鍵支柱:人才、創新、領導力和透明度。這些指標共同構成了人工智慧與銀行業發展的全面視角。
https://evidentinsights.com/ai-index
PNC金融服務集團 (PNC Financial Services)案例

摩根大通的風險管理平台以Python為基礎
1.JPMorgan Chase最早在2010年前後開始大規模使用Python,主要透過其Athena交易平台開發,這是銀行內部用於定價、交易、風險管理和分析以及用於數據科學和機器學習的工具。
2.Athena平台源自高盛SecDB團隊的部分工程師轉至JPMorgan,大約在2007-2010年間啟動Python開發。
3.銀行將Python列為核心技能約在2021-2023年間,並推出內部培訓課程,GitHub上的Python訓練資源也於2019年公開。 資產管理部門從2018年起要求新進分析師接受Python訓練,反映Python已成為金融數據分析和AI應用的關鍵工具。
摩根大通執行董事Misha Tselman 在 PyData 2017的一次演講中提供的數據顯示,這個廣泛的功能集利用了超過150,000個Python模組,超過500個開源包和3,500多萬行Python代碼,這些代碼由1,500多名開發人員貢獻。
AI模型風險因素

AI治理課程_案例解答-四個案例
下載鏈接(需解壓密碼,上課時告知)
https://drive.google.com/file/d/11umTGGqi51vmR8z7K102S-nGzjJTQfZ4/view?usp=sharing




