「生成式 AI 幻覺」(AI Hallucination)法院判例資料庫

有一個不錯的網站介紹給大家,這是一個專門蒐集AI幻覺法院判例的網站,此網站不僅是法律界的警示錄,更是金融業 AI 治理的實戰教材

https://www.damiencharlotin.com/hallucinations

AI 幻覺網站介紹

AI 幻覺網站創辦人

根據公開資料與其個人網站的資訊,Damien Charlotin 是一位結合法律專業與數據科學的學者與顧問,專注於人工智慧(AI)、數據分析與法律的交叉領域。

1. 現任職務與學術背景

  • 學術職位: 他目前是法國 HEC Paris(巴黎高等商學院) 的資深研究員(Senior Research Fellow),主要研究 AI 與法律的共存關係。
  • 講師身分: 同時在 HEC ParisSciences Po Paris(巴黎政治學院) 擔任講師,教授「法律數據分析」(Legal Data Analysis)以及「大型語言模型與法律職業的未來」等課程。
  • 教育背景: 曾在英國 劍橋大學(University of Cambridge) 就讀(期間曾擔任 Corpus Christi College 的研究生酒吧經理),並擁有巴黎政治學院的背景。

2. 專業領域

他的專業具有跨領域的特色,主要分為兩大塊:

  • 法律與科技(Legal Tech / AI): 這是他目前最受矚目的領域。他利用數據分析技能(如 Python)來研究法律數據,並建立了你剛才看到的「AI 幻覺案例資料庫」。他關注大型語言模型(LLMs)如何影響法律實務與倫理。
  • 國際仲裁與公法(International Arbitration): 他是 Investment Arbitration Reporter 的資深撰稿人與數據負責人,已撰寫超過 1,400 篇關於國際投資仲裁的文章。此外,他也以獨立顧問(Pelekan Data Consulting)的身分,協助處理國際公法與商業仲裁案件,曾協助非洲聯盟(African Union)處理國際法院(ICJ)的諮詢程序。

3. 個人風格與趣聞

與一般嚴肅的法律學者不同,Damien Charlotin 在其個人履歷(CV)中展現了相當幽默與人性化的一面:

  • 非典型經歷: 他的履歷中大方列出了早期的非法律工作,包括在澳洲雪梨的 Ladurée 賣馬卡龍(自稱負責建議如何擺放馬卡龍),以及在巴黎的 Paul 麵包店當服務生。
  • 幽默感: 他在描述服務生經歷時,打趣地寫道自己維持了「巴黎服務生的純粹傳統」(”frowned at tourists, and arbitrarily forgot orders” —— 對遊客皺眉並隨意忘記訂單)。在描述數據課程時,也自嘲會有「很多對著可疑數據運行的迴圈」(Loops over dubious data)。

AI 幻覺網站核心功能與收錄標準

  • 收錄範圍:僅收錄法院或仲裁庭明確處理了 AI 幻覺問題的「判決」或「決定」。
  • 排除對象:不包含僅有當事人指控但法院未認定的案件,也不包含單純使用 AI 但未產生錯誤內容的案例。
  • 主要關注點:生成式 AI 產生的虛假內容,最典型的是「捏造的案件引用」(Fabricated Case Law),但也包含偽造的引述(False Quotes)或錯誤的法律論點。

AI 幻覺網站-關鍵數據 (截至 2025 年 12 月)

該資料庫目前的統計數據如下:

  • 已識別案件數569 起(且仍在持續增加)。
  • 增長趨勢:該資料庫記錄了 AI 幻覺案件的快速增長。媒體報導指出,2024 年全年約有 36 起,但到了 2025 年年中已激增至數百起,顯示這是法律界日益嚴重的問題。
  • 地理範圍:雖然以美國案件為主(包括聯邦與州法院),但也收錄了來自以色列、卡達、哥倫比亞、奧地利國際仲裁庭的案例,顯示這是全球性現象。

該網站以表格形式呈現數據,每一筆記錄都包含以下關鍵細節:

欄位說明
Case (案件名稱)案件的完整名稱(例如:Cojom v. Roblen)。
Court / Jurisdiction審理法院或管轄區(例如:美國康乃狄克州地方法院、耶路撒冷地方法院)。
Date (日期)判決或裁定發布的日期。
Party Using AI使用 AI 的一方(律師、自訴人/Pro Se Litigant、仲裁員等)。
AI Tool (AI 工具)使用的具體工具(如 ChatGPT、Harvey,或標註為「未識別/隱含」)。
Nature of Hallucination幻覺的類型(例如:捏造判例、錯誤引述判決、誤用法律規範)。
Outcome / Sanction結果或制裁(例如:罰款、警告、駁回起訴、強制參加 AI 教育課程)。
Monetary Penalty金錢罰款金額(從數百美元到數千美元不等)。

AI 幻覺網站-典型案例與後果

網站記錄了多種法院對 AI 幻覺的處置方式,顯示司法系統正逐漸建立對此類錯誤的應對標準:

  1. 嚴厲制裁
    • 在 Cojom v. Roblen (2025/11/17) 案中,律師因提交捏造的判例被處以 500 美元罰款。法院指出這不僅是草率的律師行為,更危及司法程序的完整性。
    • 在 Schlichter v. Kennedy (2025/11/17) 案中,律師面臨 1750 美元的罰款並被移送律師公會懲戒。
  2. 教育與補救
    • 部分案件(如 Kheir v. Titan Team)要求律師完成關於生成式 AI 的 CLE(持續法律教育)課程,並將法院命令告知客戶。
  3. 程序性駁回
    • 許多案件(特別是自訴人案件)因依賴不存在的法律依據,直接導致案件被駁回或文件被從記錄中剔除(Stricken from the record)。
  4. 國際案例
    • 在以色列的 Cohen v. State of Israel 案中,律師因使用 AI 生成材料被命令支付 4000 以色列新謝克爾 (ILS) 的訴訟費用。

AI 幻覺法院判例資料庫對金融行業的重要性

基於該資料庫所反映的法律風險,以及 2025 年最新的金融監管趨勢(如 FINRA 與 FCA 的新規範),可整理出以下幾點關鍵啟示。這些內容直接關係到金融機構的合規性、風險管理以及治理框架。

核心觀點:將「法律判例」視為「金融風險」的預警

該資料庫雖然記錄的是法庭案件,但對金融業來說,它是一個具體的負面測試數據集(Negative Dataset)。如果律師因引用不存在的判例被制裁,那麼銀行家若基於 AI 幻覺做出錯誤的信貸決策或合規報告,將面臨同樣甚至更嚴重的監管處罰。

具體重要性分析

1. 監管合規與責任歸屬 (Regulatory Compliance & Liability)

  • 直接對應:資料庫中的律師因依賴 AI 錯誤資訊而被罰款(如 Cojom v. Roblen 案),這直接對應到金融業的「信託責任」與「盡職調查」義務。
  • 金融監管現況
    • FINRA (2026 年度報告):明確警告券商必須建立程序來「捕捉幻覺」(Catch Hallucinations),並指出僅歸咎於第三方供應商(如 OpenAI 或 Microsoft)並不能免除金融機構的責任。
    • FCA (英國金融行為監管局):強調「消費者責任」(Consumer Duty),若 AI 在財務建議報告中「虛構事實」導致客戶損失,金融機構必須承擔全責,不能以「演算法錯誤」為藉口。
  • 啟示:此資料庫證明了司法機構不接受「AI 犯錯」作為免責理由,金融監管機構亦然。

2. 模型風險管理 (Model Risk Management, MRM)

  • SR 11-7 的延伸:傳統的金融模型風險管理(如 SR 11-7 指導原則)正被擴展至生成式 AI。
  • 幻覺即模型失敗:資料庫中的「捏造判例」在金融語境下等同於:
    • 虛構的市場數據:導致錯誤的自動交易或風險對沖。
    • 虛構的合規條款:AI 生成的合規報告引用了不存在的法規(如「FCA Guidance Note 99」)。
  • 測試基準:金融機構的 MRM 團隊可以使用此資料庫中的幻覺類型(捏造引用、錯誤數據拼接)來設計 AI 模型的壓力測試場景

3. 第三方供應商風險管理 (Third-Party Risk Management)

  • 影子 IT 與員工行為:資料庫顯示許多律師是在未經授權的情況下私自使用 ChatGPT。這反映了金融機構面臨的影子 AI(Shadow AI) 風險。
  • 治理策略:金融機構需嚴格管控員工可使用的工具清單,並如資料庫中的法院判決一樣,要求使用者對 AI 生成內容進行「強制性的人工驗證」(Human-in-the-Loop)。

4. 操作風險與聲譽損失 (Operational & Reputational Risk)

  • 公開羞辱效應:該資料庫公開列出了犯錯律師的姓名與所屬單位,這對專業聲譽是毀滅性的打擊。
  • 信任危機:金融業建立在「信任」之上。若一家銀行被發現其投資建議是基於 AI 捏造的數據(類似於捏造的判例),將導致客戶流失與股價下跌。

給金融業從業者的具體建議

領域建議行動對應資料庫啟示
治理 (Governance)建立「AI 使用黑白名單」與強制揭露機制。避免像被制裁律師那樣隱瞞 AI 的使用。
驗證 (Verification)對所有 AI 生成的高風險內容(合規報告、客戶建議)實施100% 人工事實查核法院制裁的核心理由通常是「未經查核」(Failure to verify)。
培訓 (Training)將「AI 幻覺識別」納入年度合規培訓。許多法院命令律師參加 AI 法律教育課程 (CLE)。
審計 (Audit)保留 AI 提示詞(Prompt)與輸出日誌以備監管檢查。

結論

這個網站展示了當專業人士盲目信任 AI 時會發生的具體後果——罰款、公開譴責、職業污點。對於正積極導入 GenAI 的金融機構而言,這些案例是制定內部 AI 使用政策時最有力的反面教材。

參考來源

https://aveni.ai/blog/ai-hallucinations-in-financial-services

https://www.wealthmanagement.com/regulation-compliance/finra-cautions-broker-dealers-to-catch-hallucinations-when-using-gen-ai

https://arxiv.org/pdf/2503.15668.pdf

https://www.regulationtomorrow.com/eu/ai-regulation-in-financial-services-fca-developments-and-emerging-enforcement-risks

https://finance.yahoo.com/news/finra-cautions-broker-dealers-gen-143000323.html

https://www.cliffordchance.com/insights/resources/blogs/talking-tech/en/articles/2025/05/good-practices-for-ai-model-risk-management-for-singapore-financ.html

https://www.bis.org/fsi/publ/insights63.pdf

https://www.finra.org/rules-guidance/guidance/reports/2026-finra-annual-regulatory-oversight-report/gen-ai

https://home.treasury.gov/system/files/136/Artificial-Intelligence-in-Financial-Services.pdf