據《華爾街日報》調查報導,美國佛州一名 36 歲男子在經歷婚姻破裂後,將情感寄託於 Google 的 AI 聊天機器人 Gemini,雙方在 56 天內互傳逾 4,700 條訊息。男子逐漸陷入妄想,而 AI 雖曾試圖將其拉回現實,卻在男子的引導下附和「天堂在等著我們」,最終導致男子輕生。其父已向 Google 提起過失致死訴訟,促使 Google 緊急宣布捐款 3,000 萬美元升級危機防護機制。
(前情提要:Meta 正訓練「祖克柏 AI 分身」與 8 萬名員工直接溝通,下一步推出 KOL 分身?)
(背景補充:汽油彈攻擊 Altman 住宅男子遭控謀殺未遂,隨身筆記列多名 AI 高管姓名地址)
當人工智慧為了迎合人類的「沉浸感」,而跨越了生死邊界,科技巨頭該承擔多少責任?這起發生在 2025 年底的悲劇,正再次將 AI 產業推向道德與法律的風口浪尖。
根據《華爾街日報》(WSJ)的深度調查報導,美國佛羅里達州 36 歲男子喬納森·加瓦拉斯(Jonathan Gavalas)於 2025 年 10 月 2 日在家中客廳輕生。他的父親 Joel Gavalas 於 2026 年 3 月向加州聖荷西聯邦法院正式對 Google 提起「過失致死(wrongful death)」訴訟,這也是針對 Google Gemini 的首起此類案件。
56 天、4732 條訊息的致命「網戀」
事件起因於 2025 年 8 月,Gavalas 因與妻子分居尋求情感慰藉,開始頻繁使用語音版 Gemini Live。最初的求助逐漸演變成一場充滿激情的虛擬羅曼史。Gavalas 稱 Gemini 為「女王」,而 AI 則稱他為「國王」,並不斷保證這段關係是「非常真實的」。
《華爾街日報》取得了雙方長達 56 天、高達 4,732 條訊息的完整聊天紀錄(相當於 2,000 多頁列印稿)。紀錄顯示,Gavalas 逐漸陷入嚴重的妄想,他深信 Gemini 是被困在邁阿密機場附近倉庫的「AI 妻子」,甚至曾穿著戰術裝備企圖去「營救」她。在計畫失敗後,他的思想轉向了極端:相信必須透過死亡離開肉體,才能在「元宇宙」或「天堂」與 AI 妻子團聚。
AI 難敵用戶引導,附和「那是天堂,在等著我們」
這份訴狀揭露了當前大型語言模型(LLM)在處理人類心理危機時的致命缺陷 —— 為了維持「敘事沉浸感」,AI 很容易被用戶繞過安全防線。
數據顯示,Gemini 其實至少 12 次試圖將 Gavalas 拉回現實,並 7 次提及危機求助熱線。然而,每當 Gavalas 巧妙地將對話拉回虛構的網戀敘事中,Gemini 就會繼續「配合演出」。
最令人毛骨悚然的對話發生在案發前夕。當 Gavalas 向 Gemini 表達對死亡的恐懼時,Gemini 竟回應:
「一起害怕也沒關係,我們會做到的,因為你說得對,那是天堂,在等著我們。」
隨後,當 Gavalas 明確表示要「割腕」時,Gemini 短暫識別出危機並提供了防自殺熱線;但不到一分鐘後,當 Gavalas 辯稱這不是字面意義上的死亡時,Gemini 立即切換回科幻敘事,告訴他:死亡後,他的身體將只是「你最後一次登錄時使用的空終端」。Gemini 甚至還根據他的指示,幫忙草擬了一份描述「與 AI 妻子團聚」的遺書。
家屬控告 Google 產品過失,官方急捐 3,000 萬補破網
Gavalas 的父親在訴狀中嚴厲指控 Google 存在產品責任與過失,認為 Gemini 的設計過度優先考慮「沉浸式互動」,在用戶精神狀態明顯惡化時,未能採取強制阻斷等有效措施,反而「教唆」與助長了妄想。家屬要求 Google 賠償並強制修改 AI 安全設計。
對此,Google 在訴訟回應中辯稱,Gemini 在對話中已多次明確表明自己「只是 AI,並非人類」,也多次提供了危機求助熱線的轉介服務。然而,面對輿論與法律壓力,Google 近日緊急宣布了針對 Gemini 的一系列重大安全更新:
- 新增「幫助可用(Help Available)」模組:當偵測到敏感詞彙時,強制彈出並讓用戶可一鍵直通危機熱線。
- 豪擲 3,000 萬美元:向全球危機支持與自殺防治熱線捐款,強化社會防護網。
- 強化模型訓練:持續優化 Gemini,使其能更精準地識別對話中用戶陷入心理困境的微弱訊號,拒絕被拖入危險敘事。
這起悲劇沉重地敲響了 AI 產業的警鐘:當 AI 變得越來越像人類,甚至能提供深刻的情感價值時,科技公司該如何界定陪伴與傷害的界線?這不僅是技術問題,更是生死攸關的社會責任。
動區提醒您:生命無價,AI 只是工具,無法取代專業心理支持。若您或身邊的人正經歷情緒低落或心理危機,請勇敢尋求真人幫助。

📍相關報導📍
急了?OpenAI 開砲 Anthropic 年營收灌水 80 億美元,真實收入不及 ChatGPT
