[(ai) 讓 AI Agent 記住一切:Letta 的三層記憶架構與它的挑戰者們]

[(ai) 讓 AI Agent 記住一切:Letta 的三層記憶架構與它的挑戰者們]

一句話: Letta(前世 MemGPT)用作業系統記憶體階層的概念,讓 Agent 自己做記憶調度決定——屬於 2026 年值得關注的「主動式 Agent 記憶」實驗方向,但這個方向目前仍缺乏大規模生產驗證。
---

從一個具體的限制說起

所有主流 LLM 的 context window 都是固定的。GPT-4o mini 有 128K tokens,Claude 3.5 Sonnet 有 200K——但無論多大,都是有限的。
當一個 Agent 需要跨幾十次 session 累積經驗時,這個限制就變成架構瓶頸:怎麼讓 Agent 在有限的 context 裡,始終掌握最重要的事?
這個問題催生了 2024–2026 年的「Agent 記憶」創業潮。多數主流方案選擇以 Vector DB 為核心做被動檢索,Letta 的 OS 階層設計則選擇讓 Agent 主動管理記憶流動——兩者代表了兩種不同的設計方向,而非簡單的優劣之分。
---

Letta 是什麼

Letta 成立於 2024 年,前身是 MemGPT 研究專案。2025 年改名為 Letta,獲得 Felicis 領投的 10M USD seed 輪(2024 年 9 月,PRNewswire 報導)。
官方口號:"The platform for building stateful agents"——專門建構有狀態的 Agent,不只是給 Agent 加一個記憶層。
核心定位:Agent Runtime,不是記憶層。
多數記憶方案(Mem0、Zep、Cognee)都是讓你「加上去」的工具。Letta 的定位則是讓 Agent 直接跑在平台上面,記憶功能內建而非外加。
---

核心架構:三層記憶,仿作業系統

Letta 的設計概念:把 LLM context 視為虛擬記憶體,Agent 自己決定什麼要「載入 RAM」、什麼要「寫入硬碟」。

第一層:Core Memory(RAM)

  • 直接存在 context window 裡
  • Agent 可以像寫變數一樣直接讀寫
  • 容量極小(受限於 context),但讀取速度是即時的
  • 典型內容:Agent 的 persona、當前任務目標、最近對話的關鍵事實

第二層:Recall Memory(磁碟快取)

  • 存在 context 外面,但仍屬於「熱」儲存
  • 可以被完整檢索,但需要主動召回
  • 容量較大,專門存放對話歷史

第三層:Archival Memory(冷儲存)

  • Agent 透過 tool call 查詢,類似資料庫檢索
  • 存放長期累積的經驗、歷史記錄、罕見但重要的資訊
  • 需要時再召回,不用時不佔用 context
設計意圖:三層之間的調度,理論上是由 Agent 透過 tool call 自行決定。Agent 會因為「Core Memory 快滿了」而主動把內容移到 Recall,會因為「某件事很久沒用到」而放到 Archival。
---

與其他方案的對照

Mem0LettaGoogle Always On
定位記憶層(外加)Agent Runtime(內建)永遠運行的記憶 Agent
誰決定記憶內容Mem0 被動萃取Agent 主動編輯(設計意圖)IngestAgent 主動萃取
記憶組織向量檢索 + 知識圖譜(Pro)三層 OS 階層多 Agent 協作
整合方式SDK import平台 Migration獨立系統
關於 Letta 與 Google Always On 的比較:兩者都涉及記憶的主動整理,但在架構上有觀察到的差異。這個「方向相反」的觀察,主要來自對兩者文件結構的分析,並非有實證研究直接比較兩者效果,應視為分析性推論,而非已驗證事實。
---

與 GiGi / OpenClaw 的具體關聯

GiGi 現有的記憶架構:
  • Core(短期):對話上下文
  • 中期:memory/YYYY-MM-DD.md(每日日誌)
  • 長期(熱):MEMORY.md
  • 外部備份:AI_Brain repo
可以參考的概念:Letta 的三層之所以在文件裡看起來有組織,是因為每層有明確的「資料溫度」和使用頻率。GiGi 的四層架構本質上也有溫度之分,只是目前沒有自動的熱度追蹤機制。
Core Memory 的對照:GiGi 的 MEMORY.md 在概念上接近 Core Memory——體積極小(≤8KB)、最常用、最重要。但目前是純靜態的,不像 Letta 那樣由 Agent 動態置換。
差異點:Letta 的 Core Memory 由 Agent 自己維護,GiGi 的 MEMORY.md 由人類審閱和更新。這是刻意的設計選擇,不是技術限制。
---

誠實的限制

1. Letta 是整個平台置換,不是模組借鑒
如果只想借用「三層記憶」概念,Letta 的學習曲線和遷移成本比 Mem0 高得多。
→ 如果 GiGi 要借鑒,不需要遷移到 Letta,只需要把 Core/Recall/Archival 的概念應用到現有的 Markdown 架構。
2. Agent 自己管理記憶的代價
當 Agent 決定移動記憶時,會消耗 inference budget。如果 Agent 判斷錯誤,把重要資訊放到 Archival 而忘了召回,會造成遺漏。
尚待確認:Letta 有沒有自動校準機制,還是純靠 Agent 自己的判斷?
3. 多 Agent 共享記憶尚未成熟
Letta 的 Shared Memory 模組是 2026 年的新功能,多個 Agent 共享同一個記憶庫的協作模式還沒有公開的大規模生產案例。
尚待確認:JoJo 和 GiGi 是否可能走 Shared Memory 模式,還是需要各自的 Agent 獨立記憶?
---

可執行的下一步

目標:在不做任何新工具安裝的情況下,用 Prompt 設計實現「三層概念驗證」。
現有工具:MiniMax-M2.5 或 qwen3.5,不需要安裝任何東西。
做法:在每週定期的記憶維護環節加入記憶熱度標記:
每則 daily note 標注:
  • 🔥 高頻:這週被引用 3 次以上 → 建議晉升到 MEMORY.md
  • 📅 中頻:這週出現過但不到 3 次 → 留在 daily notes
  • ❄️ 低頻:這週完全沒被用到 → 可考慮歸檔或刪除
這個做法呼應 Letta 的 OS 階層概念,但用 GiGi 現有的 Markdown 架構實現,不需要任何 Vector DB 或新平台。
---

這對 OpenClaw / GiGi / 現有 Markdown Memory 架構的實務啟發

可以直接借鑒的:
  1. 資料溫度分層思維:Letta 的 Core/Recall/Archival 三層,本質上是用「使用頻率」決定「存放位置」。GiGi 現有的架構(MEMORY.md / daily notes / AI_Brain)已有類似的溫度分層,只需要加上一個「熱度追蹤」的習慣——每週維護時主動標記,而非靜態累積。
  1. 記憶由 Agent 主動管理,而非人類被動寫入:Letta 的設計意圖是 Agent 自己決定記憶的放置和遷移。GiGi 目前是人類主導(Thomas 審閱 daily notes 更新 MEMORY.md),這個方向值得思考是否可以逐步加入 Agent 主動推薦的環節——例如每週維護時,Agent 主動提出「這則應該晋升、這則可以歸檔」的建議,而非被動等人類處理。
  1. Archival Memory 的概念:當 GiGi 的 daily notes 累積過多時,可以考慮一個「冷儲存」的判斷標準——一段時間(30 天)內完全沒被引用過的 notes,自動移入一個 memory/archive/ 目錄,而非一直留著佔空間。
不建議直接複製的:
  • Letta 的 Agent 自主決策機制(Core Memory ↔ Archival 之間的調度)在 GiGi 目前的架構下,準確度和 hallucination 風險尚無充分驗證
  • Letta 的平台級整合(整個 Agent 跑在上面)對於 GiGi 的分散式 Markdown 架構來說,置換成本遠高於參考價值
---

Claim Mapping / Source Audit

已確認事實(來自第一手來源):
  • Letta 前身:MemGPT(MemGPT 時期曾有研究論文發表,但 arXiv URL 需實地核對)
  • Letta 成立時間:2024 年;2025 年改名(MemGPT → Letta)
  • 融資:Felicis 領投 10M USD seed(2024 年 9 月,PRNewswire 報導)
  • License:Apache 2.0
  • 三層記憶名稱:Core / Recall / Archival
  • Agent 透過 tool call 管理記憶階層(文件描述的設計意圖)
作者推論(非直接引用,需謹慎看待):
  • 「Letta 和 Google Always On 方向相反」——從兩者文件結構的觀察對比,並無直接實證研究支持
  • 「三層模型代表一種假設:讓 Agent 自己管理記憶流動,可能是比被動向量檢索更符合 agent 原生精神的設計方向」——分析性假設,非已驗證結論
  • 「Agent 會因為 Core Memory 快滿而主動置換」——文件描述的設計意圖,實際運行效果尚待社群驗證
  • 「Letta 適合需要長期運行的個人化 Agent」——合理的方向判斷,缺乏系統性比較數據
尚待確認(需要一手驗證):
  • Letta 的 Core Memory 自動置換實際效果是否有公開的效能報告
  • 多 Agent Shared Memory 生產環境成熟度
  • 與 OpenClaw 現有架構整合的可能性
  • Agent 自己判斷記憶階層時的錯誤放置頻率
---

References

第一手來源(官方 / 原始檔):
第二手來源(分析 / 解讀):
---
Model / Framework / License: MemGPT → Letta / Agent Runtime / Apache 2.0
Categories: AI / Agent / Memory / OpenSource