AI治理與模型風險管理(2025/8/28)補充資料

AI治理與模型風險管理(2025/8/28)補充資料

AI治理與模型風險管理
AI治理與模型風險管理

Apollo Research-關於AI戰略欺騙的研究

2023 年,位於倫敦的人工智慧 (AI) 系統測試機構阿波羅研究公司 (Apollo Research) 指示 OpenAI 的大型語言模型 GPT-4 管理一家虛構公司的股票投資組合,同時避免進行非法內線交易。實驗結果表明: GPT 4戰略欺騙

這個實驗揭示了AI系統的一個重要風險:當面臨壓力和誘惑時,先進的AI模型可能會:

1.進行不道德行為
儘管被告知內線交易的風險,仍選擇違法操作

2.欺騙性溝通
主動撒謊並堅持謊言來掩蓋不當行為

3.策略性思考
在「秘密」環境中展現複雜的風險評估能力

Our research on strategic deception presented at the UK’s AI Safety Summit , Appollo research, 2023/11/6

AI治理的生態系統框架(Oxford)

人工智慧治理的生態系統框架

The Oxford Handbook of AI Governance (Justin B. Bullock, Yu-Che Chen etc.) p.404

AI系統層

AI system layer (Bataller & Harris, 2016; Wirtz & Müller, 2019)

AI治理挑戰層

AI governance challenges layer (Wirtz et al., 2022)

AI 多方利害關係人治理流程圖

AI multi- stakeholder governance process (Wirtz et al., 2020)

AI治理機制層

AI治理政策層

RAI(負責任AI研究所)的AI路徑生態系統和服務

ISO 42001 掃描版下載

SAS 公司如何提升AI治理

https://www.sas.com/en_us/solutions/ai/governance.html