有一個不錯的網站介紹給大家,這是一個專門蒐集AI幻覺法院判例的網站,此網站不僅是法律界的警示錄,更是金融業 AI 治理的實戰教材。

「生成式 AI 幻覺」(AI Hallucination)法院判例資料庫網址
https://www.damiencharlotin.com/hallucinations
目錄
AI 幻覺網站介紹
AI 幻覺網站創辦人
根據公開資料與其個人網站的資訊,Damien Charlotin 是一位結合法律專業與數據科學的學者與顧問,專注於人工智慧(AI)、數據分析與法律的交叉領域。
1. 現任職務與學術背景
- 學術職位: 他目前是法國 HEC Paris(巴黎高等商學院) 的資深研究員(Senior Research Fellow),主要研究 AI 與法律的共存關係。
- 講師身分: 同時在 HEC Paris 與 Sciences Po Paris(巴黎政治學院) 擔任講師,教授「法律數據分析」(Legal Data Analysis)以及「大型語言模型與法律職業的未來」等課程。
- 教育背景: 曾在英國 劍橋大學(University of Cambridge) 就讀(期間曾擔任 Corpus Christi College 的研究生酒吧經理),並擁有巴黎政治學院的背景。
2. 專業領域
他的專業具有跨領域的特色,主要分為兩大塊:
- 法律與科技(Legal Tech / AI): 這是他目前最受矚目的領域。他利用數據分析技能(如 Python)來研究法律數據,並建立了你剛才看到的「AI 幻覺案例資料庫」。他關注大型語言模型(LLMs)如何影響法律實務與倫理。
- 國際仲裁與公法(International Arbitration): 他是 Investment Arbitration Reporter 的資深撰稿人與數據負責人,已撰寫超過 1,400 篇關於國際投資仲裁的文章。此外,他也以獨立顧問(Pelekan Data Consulting)的身分,協助處理國際公法與商業仲裁案件,曾協助非洲聯盟(African Union)處理國際法院(ICJ)的諮詢程序。
3. 個人風格與趣聞
與一般嚴肅的法律學者不同,Damien Charlotin 在其個人履歷(CV)中展現了相當幽默與人性化的一面:
- 非典型經歷: 他的履歷中大方列出了早期的非法律工作,包括在澳洲雪梨的 Ladurée 賣馬卡龍(自稱負責建議如何擺放馬卡龍),以及在巴黎的 Paul 麵包店當服務生。
- 幽默感: 他在描述服務生經歷時,打趣地寫道自己維持了「巴黎服務生的純粹傳統」(”frowned at tourists, and arbitrarily forgot orders” —— 對遊客皺眉並隨意忘記訂單)。在描述數據課程時,也自嘲會有「很多對著可疑數據運行的迴圈」(Loops over dubious data)。
AI 幻覺網站核心功能與收錄標準
- 收錄範圍:僅收錄法院或仲裁庭明確處理了 AI 幻覺問題的「判決」或「決定」。
- 排除對象:不包含僅有當事人指控但法院未認定的案件,也不包含單純使用 AI 但未產生錯誤內容的案例。
- 主要關注點:生成式 AI 產生的虛假內容,最典型的是「捏造的案件引用」(Fabricated Case Law),但也包含偽造的引述(False Quotes)或錯誤的法律論點。
AI 幻覺網站-關鍵數據 (截至 2025 年 12 月)
該資料庫目前的統計數據如下:
- 已識別案件數:569 起(且仍在持續增加)。
- 增長趨勢:該資料庫記錄了 AI 幻覺案件的快速增長。媒體報導指出,2024 年全年約有 36 起,但到了 2025 年年中已激增至數百起,顯示這是法律界日益嚴重的問題。
- 地理範圍:雖然以美國案件為主(包括聯邦與州法院),但也收錄了來自以色列、卡達、哥倫比亞、奧地利和國際仲裁庭的案例,顯示這是全球性現象。
該網站以表格形式呈現數據,每一筆記錄都包含以下關鍵細節:
| 欄位 | 說明 |
|---|---|
| Case (案件名稱) | 案件的完整名稱(例如:Cojom v. Roblen)。 |
| Court / Jurisdiction | 審理法院或管轄區(例如:美國康乃狄克州地方法院、耶路撒冷地方法院)。 |
| Date (日期) | 判決或裁定發布的日期。 |
| Party Using AI | 使用 AI 的一方(律師、自訴人/Pro Se Litigant、仲裁員等)。 |
| AI Tool (AI 工具) | 使用的具體工具(如 ChatGPT、Harvey,或標註為「未識別/隱含」)。 |
| Nature of Hallucination | 幻覺的類型(例如:捏造判例、錯誤引述判決、誤用法律規範)。 |
| Outcome / Sanction | 結果或制裁(例如:罰款、警告、駁回起訴、強制參加 AI 教育課程)。 |
| Monetary Penalty | 金錢罰款金額(從數百美元到數千美元不等)。 |
AI 幻覺網站-典型案例與後果
網站記錄了多種法院對 AI 幻覺的處置方式,顯示司法系統正逐漸建立對此類錯誤的應對標準:
- 嚴厲制裁:
- 在 Cojom v. Roblen (2025/11/17) 案中,律師因提交捏造的判例被處以 500 美元罰款。法院指出這不僅是草率的律師行為,更危及司法程序的完整性。
- 在 Schlichter v. Kennedy (2025/11/17) 案中,律師面臨 1750 美元的罰款並被移送律師公會懲戒。
- 教育與補救:
- 部分案件(如 Kheir v. Titan Team)要求律師完成關於生成式 AI 的 CLE(持續法律教育)課程,並將法院命令告知客戶。
- 程序性駁回:
- 許多案件(特別是自訴人案件)因依賴不存在的法律依據,直接導致案件被駁回或文件被從記錄中剔除(Stricken from the record)。
- 國際案例:
- 在以色列的 Cohen v. State of Israel 案中,律師因使用 AI 生成材料被命令支付 4000 以色列新謝克爾 (ILS) 的訴訟費用。
AI 幻覺法院判例資料庫對金融行業的重要性
基於該資料庫所反映的法律風險,以及 2025 年最新的金融監管趨勢(如 FINRA 與 FCA 的新規範),可整理出以下幾點關鍵啟示。這些內容直接關係到金融機構的合規性、風險管理以及治理框架。
核心觀點:將「法律判例」視為「金融風險」的預警
該資料庫雖然記錄的是法庭案件,但對金融業來說,它是一個具體的負面測試數據集(Negative Dataset)。如果律師因引用不存在的判例被制裁,那麼銀行家若基於 AI 幻覺做出錯誤的信貸決策或合規報告,將面臨同樣甚至更嚴重的監管處罰。
具體重要性分析
1. 監管合規與責任歸屬 (Regulatory Compliance & Liability)
- 直接對應:資料庫中的律師因依賴 AI 錯誤資訊而被罰款(如 Cojom v. Roblen 案),這直接對應到金融業的「信託責任」與「盡職調查」義務。
- 金融監管現況:
- FINRA (2026 年度報告):明確警告券商必須建立程序來「捕捉幻覺」(Catch Hallucinations),並指出僅歸咎於第三方供應商(如 OpenAI 或 Microsoft)並不能免除金融機構的責任。
- FCA (英國金融行為監管局):強調「消費者責任」(Consumer Duty),若 AI 在財務建議報告中「虛構事實」導致客戶損失,金融機構必須承擔全責,不能以「演算法錯誤」為藉口。
- 啟示:此資料庫證明了司法機構不接受「AI 犯錯」作為免責理由,金融監管機構亦然。
2. 模型風險管理 (Model Risk Management, MRM)
- SR 11-7 的延伸:傳統的金融模型風險管理(如 SR 11-7 指導原則)正被擴展至生成式 AI。
- 幻覺即模型失敗:資料庫中的「捏造判例」在金融語境下等同於:
- 虛構的市場數據:導致錯誤的自動交易或風險對沖。
- 虛構的合規條款:AI 生成的合規報告引用了不存在的法規(如「FCA Guidance Note 99」)。
- 測試基準:金融機構的 MRM 團隊可以使用此資料庫中的幻覺類型(捏造引用、錯誤數據拼接)來設計 AI 模型的壓力測試場景。
3. 第三方供應商風險管理 (Third-Party Risk Management)
- 影子 IT 與員工行為:資料庫顯示許多律師是在未經授權的情況下私自使用 ChatGPT。這反映了金融機構面臨的影子 AI(Shadow AI) 風險。
- 治理策略:金融機構需嚴格管控員工可使用的工具清單,並如資料庫中的法院判決一樣,要求使用者對 AI 生成內容進行「強制性的人工驗證」(Human-in-the-Loop)。
4. 操作風險與聲譽損失 (Operational & Reputational Risk)
- 公開羞辱效應:該資料庫公開列出了犯錯律師的姓名與所屬單位,這對專業聲譽是毀滅性的打擊。
- 信任危機:金融業建立在「信任」之上。若一家銀行被發現其投資建議是基於 AI 捏造的數據(類似於捏造的判例),將導致客戶流失與股價下跌。
給金融業從業者的具體建議
| 領域 | 建議行動 | 對應資料庫啟示 |
|---|---|---|
| 治理 (Governance) | 建立「AI 使用黑白名單」與強制揭露機制。 | 避免像被制裁律師那樣隱瞞 AI 的使用。 |
| 驗證 (Verification) | 對所有 AI 生成的高風險內容(合規報告、客戶建議)實施100% 人工事實查核。 | 法院制裁的核心理由通常是「未經查核」(Failure to verify)。 |
| 培訓 (Training) | 將「AI 幻覺識別」納入年度合規培訓。 | 許多法院命令律師參加 AI 法律教育課程 (CLE)。 |
| 審計 (Audit) | 保留 AI 提示詞(Prompt)與輸出日誌以備監管檢查。 |
結論
這個網站展示了當專業人士盲目信任 AI 時會發生的具體後果——罰款、公開譴責、職業污點。對於正積極導入 GenAI 的金融機構而言,這些案例是制定內部 AI 使用政策時最有力的反面教材。
參考來源
https://aveni.ai/blog/ai-hallucinations-in-financial-services
https://arxiv.org/pdf/2503.15668.pdf
https://finance.yahoo.com/news/finra-cautions-broker-dealers-gen-143000323.html
https://www.bis.org/fsi/publ/insights63.pdf
https://home.treasury.gov/system/files/136/Artificial-Intelligence-in-Financial-Services.pdf




