美國聯邦法官 Jed Rakoff 裁定,前 GWG Holdings 主席 Bradley Heppner 須向聯邦檢察官交出 31 份以 Anthropic Claude 生成的文件,確立 AI 使用者與聊天機器人平台之間不存在「律師-客戶關係」。多家律師事務所隨即更新客戶警告,建議用 AI 輔助備訴時須在提示詞中標明「依律師指示進行」。
(前情提要:Anthropic 要求實名 KYC 驗證!Claude 部分功能將需上傳身分證件,合規壓力擴大)
(背景補充:田納西州立法將「訓練 AI 陪伴對話、模仿人類」列重罪,與一級謀殺同級、最重關 25 年)
當一名被指控詐欺的企業主,把案情細節輸入 AI 聊天機器人,試圖為與律師討論做前置準備時,他或許以為那些對話受法律保護。
但曼哈頓聯邦法官 Jed Rakoff 今年二月裁定,前 GWG Holdings 主席 Bradley Heppner 必須向聯邦檢察官交出他以 Anthropic Claude 生成的 31 份檔案,打破 AI 聊天機器人時代的律師特權界線。
首例裁決:AI 聊天不是律師秘密
據路透報導,Bradley Heppner 曾擔任已破產金融服務公司 GWG Holdings 主席,並創立私人另類資產公司 Beneficent。2025 年 11 月,他遭聯邦檢察官以證券詐欺及電信詐欺罪起訴,並已否認相關指控。
案件審理期間,Heppner 使用 Anthropic 旗下 AI 助理 Claude,就案情撰寫了多份報告,計劃與辯護律師共享。他的法律團隊主張,這些 AI 對話紀錄應受「律師-客戶特權」(attorney-client privilege)保護,因為內容涉及律師提供的辯護策略細節。
聯邦檢察官則反駁:這些檔案由 Heppner 自行產出,辯護律師並未直接參與;AI 平台不具律師身份,法律特權不應套用。
法官 Rakoff 的裁定支援了檢察官的立場,並在書面意見中明確寫道:AI 使用者與 Claude 平台之間「不存在也不可能存在」律師-客戶關係。
此案被法律學者視為 AI 聊天機器人時代,律師-客戶通訊保護遭遇首度司法正面挑戰的標誌性裁決。
律師界震動:用 AI 備訴前得先想好措辭
裁決一出,美國各大律師事務所迅速更新客戶警告與合約條款。
紐約律師事務所 Debevoise & Plimpton 建議,若要讓 AI 生成的檔案保有受保護地位,使用者在提示詞中必須明確寫入:「我是在律師的指導下,為 XX 訴訟進行這項研究。」
Sher Tremonte 律師事務所則在新版合約加入警告:「向第三方 AI 平台揭露特權通訊,可能構成放棄律師-客戶特權。」
同日、同議題,密西根法官得出相反結論
然而 Rakoff 做出裁決的同一天,密西根州聯邦地方法官 Anthony Patti 在另一起就業歧視訴訟中,對相同議題得出了截然不同的結論。
該案涉及一名女性與 OpenAI ChatGPT 的對話紀錄。Patti 法官將 AI 定位為「工具,而非人」,認為這些對話可視為當事人的個人工作成果,給予保護。
兩起裁決方向相反,折射出美國司法體系面對 AI 通訊法律地位時的高度分歧。法律學者指出,類似衝突最終可能需要上訴法院乃至最高法院確立統一先例。
OpenAI 與 Anthropic:使用者原本就不應抱有隱私期望
事實上,兩家主要 AI 業者的隱私政策,早已明確告知這一點。根據 OpenAI 與 Anthropic 的服務條款,使用者不應對與 AI 平台的對話抱持「隱私期望」,且在依賴 AI 工具處理法律事務前,應諮詢有資質的法律專業人士。
但現實情況是:面對高昂的律師費與複雜的法律程式,越來越多人習慣先用 AI「暖身」:整理思路、梳理脈絡,再前往律師事務所。這種操作模式的法律風險,此前從未受到如此清晰的司法檢視。
📍相關報導📍
Anthropic 要求實名 KYC 驗證!Claude 部分功能將需上傳身分證件,合規壓力擴大
田納西州立法將「訓練 AI 陪伴對話、模仿人類」列重罪,與一級謀殺同級、最重關 25 年

