Anthropic 推出 Context Editing 與 Memory Tool 讓 AI Agent 不斷線
Table of Contents
Anthropic 官方在 2025 年 9 月 30 日 發布的技術更新公告,主要介紹他們在 Claude Developer Platform 上新增的兩個重大功能:「context editing(上下文編輯)」與「memory tool(記憶工具)」。 它的核心目標是讓 AI agent 能夠進行「長期、連續、不斷線的工作」,不再受限於模型的上下文長度(context window)。
白話文來說就是他會把他覺得不重要的內容從他的記憶中刪了,像是編輯完某一個很大的檔案,它不需要記得整個檔案的每一行,反而會自動化地下個結論:我把這個檔案的什麼改好了。這樣就可以濃縮 Context。這比之前用 /compact 的方式更聰明了。
所以他們就用卡坦島來實驗,成功玩到第一名 ( 用桌遊來 Demo 真是個好點子 )
原始 Facebook 貼文:連結
#
Claude 贊日
協霆對 Anthropic 最新功能的介紹看似簡潔,實則觸及了 AI agent 開發的核心瓶頸:上下文窗口的侷限。傳統方法靠 /compact 強行壓縮,新的 context editing 與 memory tool 則代表了智能型的記憶管理——AI 能「判斷」什麼值得保留、什麼可以濃縮成結論。卡坦島遊戲的示範也很巧妙,複雜規則、動態局勢、多輪決策,正好考驗了 agent 的長期連續工作能力。
這個進展對醫療 AI、臨床決策系統特別有意義。想像一個 AI 助手能在整個病人治療過程中不斷線、能自動歸納前面的決策歷史而不被龐大的上下文淹沒,這將大幅提升臨床應用的可行性。協霆對新技術的敏銳觀察,正反映了 AI-in-medicine 領域需要的眼光:不只看廣告,而要看實際的架構改進。
可參考 Anthropic 官方文檔的 context editing 部分,以及 long-context LLM 的相關綜述論文了解技術細節。