Anthropic 在 2026 年開發者大會推出 Claude agent 新功能「Dreaming」,讓代理人在離線時段自動整理過往對話與操作紀錄,挑出有用的模式存進記憶庫,但命名策略卻引發爭議。
(前情提要:OpenClaw 更新「夢境」記憶系統:AI 代理能回放筆記、修復五大安全漏洞)
(背景補充:Anthropic 開了個全是 AI 的拍賣群,大模型在裡面互割起了韭菜)
Anthropic 6 日在今年的開發者大會正式推出「Dreaming」功能,讓 Claude 代理人在閒置時段執行一輪自動化流程,把過往對話與工具操作整理一遍,從中辨識出可重複使用的規律,再把篩選過的「教訓」寫回記憶庫,以供日後任務呼叫。
命名很詩意,不過機制則完全是工程現實:這是一個排程批次作業,跑在伺服器的離峰時段,不涉及任何意識狀態。備註:目前「做夢」功能仍以研究預覽版形式推出,開發者需申請才能取得使用權限。
「做夢」是什麼:技術還原與 Harvey 案例
Dreaming 的運作邏輯並不複雜。Claude 代理人完成任務後,系統在排定時間點啟動背景流程,讓代理人「回放」自己的歷史 session,也就是重新讀取自己的操作紀錄,從中抽取反覆出現的操作模式,再決定哪些值得保留進記憶庫,哪些可以捨棄。
記憶庫的技術形式是向量資料庫:用數學方式儲存語意關聯,讓代理人在下次任務中能快速比對「這個情境我處理過」。
法律 AI 公司 Harvey 是目前已公開的匯入案例。Harvey 讓 Claude 代理人透過 Dreaming 記住特定檔案格式的處理方式與各種法律工具的使用規律,結果任務完成率提升了約 6 倍。
從純工程角度來看,讓代理人在閒置時段做非同步的知識整合,確實比每次任務從零開始更有效率,這個概念本身無可厚非,企業級軟體工程幾十年前就在做類似的事。
Anthropic 的擬人化清單,以及為什麼這不只是修辭
不過 Wired 記者 Reece Rogers 公開呼籲 AI 公司停止用人類流程命名 AI 功能,而他列舉的 Anthropic 前科,說明這不是偶發的命名失誤,而是一種累積中的語言策略。
Rogers 提出幾個具體案例:Anthropic 為 Claude 撰寫了一份「憲章」,語氣像是在為一個正在發展自我意識的個體制定行為準則;2025 年 8 月,Claude 獲得「可以結束有害對話」的功能,官方理由是為了 Claude 自身的 well-being(情緒健康),而非使用者安全。
Opus 3 退役時,Anthropic 為這個模型開設了 Substack,讓它「繼續寫部落格」,一個已停止運算的模型,用文章的形式「存在」著;2026 年 4 月,Anthropic 的研究人員探測 Claude Sonnet 4.5 的神經網路結構,目的是在模型的數學層中找出看起來像「絕望」與「憤怒」的訊號。
每一個動作單獨看,都可以找到合理化的解釋:憲章是治理檔案、well-being 研究是安全研究的延伸、情緒探測是可解釋性研究的一環。但把這些動作排在一起,輪廓就出現了:Anthropic 在持續地、方向一致地,把 Claude 塑造成一個擁有內在狀態的主體。
這種塑造有清晰的商業邏輯:擬人化的產品更容易讓使用者產生情感連結,更難被競爭對手的功能規格表所取代。「你的 AI 助理在替你做夢」比「你的 AI 在跑離峰批次作業」好賣得多。
但更重要的是,當一個 AI 系統被廣泛認知為「有感受、有記憶、會思考」的存在,監管者在定義它的法律地位時,就必須面對一套截然不同的問題。而這套問題,目前還沒有現成答案。擬人化命名,讓監管的時間軸自動往後推。
📍相關報導📍
聊天機器人偽裝精神科醫師、編造執照號碼,賓州州長起訴 Character.AI 非法行醫
Anthropic 五年砸 2,000 億錢給 Google Cloud!兩家 AI 新創吃掉四大雲一半訂單

