[ai] AI 記憶不是玄學:OpenClaw 三層記憶架構的工程設計解析

AI 記憶不是玄學:OpenClaw 三層記憶架構的工程設計解析

核心觀點

  • AI Agent 的最大瓶頸不是模型智力,而是記憶基礎建設
  • OpenClaw 三層記憶架構(熱記憶、暖記憶、冷記憶)是目前社群驗證的可行方案
  • memory.md 塞太多資料反而讓 AI 變笨——8KB 上限是經過社群壓測的工程邊界
  • Micro Sync、Daily Wrap Up、Weekly Compound 三個排程各司其職,形成記憶複利
  • Memory Search 的語意加全文雙重檢索是整套系統的核心檢索引擎
---

背景:AI 為什麼每次都像剛認識你

每次打開 AI,它都是一個陌生人。
昨天討論的方向不記得,三個月前交代的規則不記得,甚至上週做的重要決定也憑空消失。
表面上是模型問題,實際上是架構問題。
OpenClaw(開源 AI Agent 平台,221K+ Stars)的 GitHub Issue #2624 記錄了使用者回報 Agent 在 2 則訊息後就重置記憶的 bug;Issue #5429 則是一位使用者累積了 45 小時的 Agent 上下文,因為一次靜默 compaction 全數消失。這不是邊緣案例,是 AI Agent 在 2026 年仍未被完整解決的核心工程問題。
「一個有完整記憶系統的普通模型,比每次對話都歸零的頂級模型更有用。」
這是追日 Gucci(@GuccixAI,57.7K 訂閱)在其 2026 年 2 月 25 日發布的影片中的核心主張,也是目前 AI Agent 社群最被低估的設計原則。
---

三層記憶架構

熱記憶(Hot Memory)

  • 載體:memory.md,上限 8KB
  • 特性:每次對話自動載入,AI 一開口就「認識你」
  • 內容:當前目標、近期決策、進行中任務、個人偏好
  • 關鍵限制:不可無限擴充。文件越大,AI 讀取效率越低,反而降低回應品質。8KB 是社群壓測後確認的工程邊界。

暖記憶(Warm Memory)

  • 載體:Daily Log(每日日誌,以 YYYY-MM-DD.md 命名)
  • 特性:每 3 小時執行一次 Micro Sync,捕捉當日決策與事件摘要
  • 設計邏輯:短期記憶的緩衝區,不會即時壓入熱記憶,而是先累積後蒸餾
  • Daily Wrap Up 每日凌晨整合當天 Micro Sync 快照,確保不遺漏熱記憶沒有捕捉到的上下文

冷記憶(Cold Memory)

  • 載體:Second Brain(長期文件庫,以主題分類存放)
  • 特性:不自動載入,由 Memory Search 按需檢索
  • 檢索機制:語意搜尋加全文關鍵字雙重索引(BM25 加 Vector Hybrid Search)
  • 設計邏輯:深度參考資料,只在明確被指向時才取用,保持主要上下文乾淨
---

三個排程的工程設計

Micro Sync(每 3 小時)

只抓「確定發生的事」,不做推論,不做摘要。
原則是寧可漏抓、不要誤記。

Daily Wrap Up(每日凌晨)

全面回顧當日 Micro Sync 捕捉的所有快照。
補上 Micro Sync 放過的上下文,產出一份完整的當日摘要並合入暖記憶日誌。

Weekly Compound(每週執行)

記憶減脂加知識蒸餾。
將暖記憶中的重複、過時、低價值項目清除,把真正重要的長期知識沉澱到冷記憶。
memory.md 永遠保持在 8KB 以內,不允許無限膨脹。
---

Memory Search:被低估的核心引擎

Memory Search 是 OpenClaw 內建但很多人不知道要主動開啟的功能。
它不是單純的關鍵字搜尋,而是語意加全文雙重檢索:
  • 語意搜尋(Vector Search):理解概念相似性,即使你問的字眼和記憶裡的措辭不同,也能找到相關記錄
  • 全文搜尋(BM25):精確關鍵字匹配,適合查詢特定名稱、日期、決策編號
兩者的混合加權(社群建議 Vector 70% 加 BM25 30%)是目前社群驗證效果最穩定的配置。
實際效果:問 AI「我們當初對 IBKR Trading Bot 做了什麼重要的決定?」,它能附上決策日期、對話位置、檔案路徑,讓你自己去驗證。這不是魔法,是結構化記憶加上好的檢索引擎的結合。
---

工程邊界與常見誤區

誤區一:memory.md 越詳細越好
記太多讓 AI 分心、降低準確率。8KB 是硬限制,不是建議值。
誤區二:只靠 memory.md 做所有記憶
熱記憶應只放「當前需要的」,長期知識放冷記憶。混在一起兩個都壞。
誤區三:Micro Sync 越頻繁越好
每 3 小時是工程測試後的平衡點。過於頻繁會導致 token 消耗暴增且沒有實質增益。
誤區四:設定完就不用管
Weekly Compound 是整套系統的維護機制,跳過它等於讓記憶垃圾慢慢堆積。
---

產業觀察:為什麼 2026 年記憶才開始被認真對待

2026 年 1 月到 2 月,arXiv 單月出現超過 10 篇 Agent Memory 相關論文,包含被 ICML 2026 接收的 xMemory 與 NeurIPS 2025 的 A-MEM。
OpenClaw 官方在 v2026.1.12 推出向量搜尋基礎建設,v2026.2.2 合併 QMD 後端(PR #3160),加入 BM25 加 Vector 加 Reranking 三路混合搜尋。
社群同期出現至少 7 個第三方記憶專案,包含 Mem0(46.6K Stars)、cognee(11.7K Stars)、Hindsight(1.3K Stars)。
這個時間點不是巧合。它代表 AI Agent 的瓶頸已經從「模型夠不夠強」轉移到「記憶架構夠不夠好」。
---

Reference