AI 記憶不是玄學:OpenClaw 三層記憶架構的工程設計解析
核心觀點
- AI Agent 的最大瓶頸不是模型智力,而是記憶基礎建設
- OpenClaw 三層記憶架構(熱記憶、暖記憶、冷記憶)是目前社群驗證的可行方案
- memory.md 塞太多資料反而讓 AI 變笨——8KB 上限是經過社群壓測的工程邊界
- Micro Sync、Daily Wrap Up、Weekly Compound 三個排程各司其職,形成記憶複利
- Memory Search 的語意加全文雙重檢索是整套系統的核心檢索引擎
---
背景:AI 為什麼每次都像剛認識你
每次打開 AI,它都是一個陌生人。
昨天討論的方向不記得,三個月前交代的規則不記得,甚至上週做的重要決定也憑空消失。
表面上是模型問題,實際上是架構問題。
OpenClaw(開源 AI Agent 平台,221K+ Stars)的 GitHub Issue #2624 記錄了使用者回報 Agent 在 2 則訊息後就重置記憶的 bug;Issue #5429 則是一位使用者累積了 45 小時的 Agent 上下文,因為一次靜默 compaction 全數消失。這不是邊緣案例,是 AI Agent 在 2026 年仍未被完整解決的核心工程問題。
「一個有完整記憶系統的普通模型,比每次對話都歸零的頂級模型更有用。」
這是追日 Gucci(@GuccixAI,57.7K 訂閱)在其 2026 年 2 月 25 日發布的影片中的核心主張,也是目前 AI Agent 社群最被低估的設計原則。
---
三層記憶架構
熱記憶(Hot Memory)
- 載體:
memory.md,上限 8KB - 特性:每次對話自動載入,AI 一開口就「認識你」
- 內容:當前目標、近期決策、進行中任務、個人偏好
- 關鍵限制:不可無限擴充。文件越大,AI 讀取效率越低,反而降低回應品質。8KB 是社群壓測後確認的工程邊界。
暖記憶(Warm Memory)
- 載體:Daily Log(每日日誌,以 YYYY-MM-DD.md 命名)
- 特性:每 3 小時執行一次 Micro Sync,捕捉當日決策與事件摘要
- 設計邏輯:短期記憶的緩衝區,不會即時壓入熱記憶,而是先累積後蒸餾
- Daily Wrap Up 每日凌晨整合當天 Micro Sync 快照,確保不遺漏熱記憶沒有捕捉到的上下文
冷記憶(Cold Memory)
- 載體:Second Brain(長期文件庫,以主題分類存放)
- 特性:不自動載入,由 Memory Search 按需檢索
- 檢索機制:語意搜尋加全文關鍵字雙重索引(BM25 加 Vector Hybrid Search)
- 設計邏輯:深度參考資料,只在明確被指向時才取用,保持主要上下文乾淨
---
三個排程的工程設計
Micro Sync(每 3 小時)
只抓「確定發生的事」,不做推論,不做摘要。
原則是寧可漏抓、不要誤記。
Daily Wrap Up(每日凌晨)
全面回顧當日 Micro Sync 捕捉的所有快照。
補上 Micro Sync 放過的上下文,產出一份完整的當日摘要並合入暖記憶日誌。
Weekly Compound(每週執行)
記憶減脂加知識蒸餾。
將暖記憶中的重複、過時、低價值項目清除,把真正重要的長期知識沉澱到冷記憶。
memory.md 永遠保持在 8KB 以內,不允許無限膨脹。
---
Memory Search:被低估的核心引擎
Memory Search 是 OpenClaw 內建但很多人不知道要主動開啟的功能。
它不是單純的關鍵字搜尋,而是語意加全文雙重檢索:
- 語意搜尋(Vector Search):理解概念相似性,即使你問的字眼和記憶裡的措辭不同,也能找到相關記錄
- 全文搜尋(BM25):精確關鍵字匹配,適合查詢特定名稱、日期、決策編號
兩者的混合加權(社群建議 Vector 70% 加 BM25 30%)是目前社群驗證效果最穩定的配置。
實際效果:問 AI「我們當初對 IBKR Trading Bot 做了什麼重要的決定?」,它能附上決策日期、對話位置、檔案路徑,讓你自己去驗證。這不是魔法,是結構化記憶加上好的檢索引擎的結合。
---
工程邊界與常見誤區
誤區一:memory.md 越詳細越好
記太多讓 AI 分心、降低準確率。8KB 是硬限制,不是建議值。
誤區二:只靠 memory.md 做所有記憶
熱記憶應只放「當前需要的」,長期知識放冷記憶。混在一起兩個都壞。
誤區三:Micro Sync 越頻繁越好
每 3 小時是工程測試後的平衡點。過於頻繁會導致 token 消耗暴增且沒有實質增益。
誤區四:設定完就不用管
Weekly Compound 是整套系統的維護機制,跳過它等於讓記憶垃圾慢慢堆積。
---
產業觀察:為什麼 2026 年記憶才開始被認真對待
2026 年 1 月到 2 月,arXiv 單月出現超過 10 篇 Agent Memory 相關論文,包含被 ICML 2026 接收的 xMemory 與 NeurIPS 2025 的 A-MEM。
OpenClaw 官方在 v2026.1.12 推出向量搜尋基礎建設,v2026.2.2 合併 QMD 後端(PR #3160),加入 BM25 加 Vector 加 Reranking 三路混合搜尋。
社群同期出現至少 7 個第三方記憶專案,包含 Mem0(46.6K Stars)、cognee(11.7K Stars)、Hindsight(1.3K Stars)。
這個時間點不是巧合。它代表 AI Agent 的瓶頸已經從「模型夠不夠強」轉移到「記憶架構夠不夠好」。
---
Reference
- 影片原始來源:https://www.youtube.com/watch?v=9pn9-yAyjFA
- OpenClaw 三層記憶 GitHub Issue(Feature Request):https://github.com/openclaw/openclaw/issues/22077
- 社群 memory 架構完整研究(ClaWHow):https://clawhow.com/article/lijiuer92-openclaw-memory-guide
- 開源生產級記憶框架 codesfly/openclaw-memory-final:https://github.com/codesfly/openclaw-memory-final
- Julian Goldie 三層記憶教學影片:https://www.youtube.com/watch?v=f8LJBh1AtKg
- 追日 Gucci Threads 貼文(三層記憶摘要):https://www.threads.com/@gucci_dgixoption/post/DVUwOYhEvxi