[(ai) 讓 AI Agent 記住一切:Letta 的三層記憶架構與它的挑戰者們]
一句話: Letta(前世 MemGPT)用作業系統記憶體階層的概念,讓 Agent 自己做記憶調度決定——屬於 2026 年值得關注的「主動式 Agent 記憶」實驗方向,但這個方向目前仍缺乏大規模生產驗證。
---
從一個具體的限制說起
所有主流 LLM 的 context window 都是固定的。GPT-4o mini 有 128K tokens,Claude 3.5 Sonnet 有 200K——但無論多大,都是有限的。
當一個 Agent 需要跨幾十次 session 累積經驗時,這個限制就變成架構瓶頸:怎麼讓 Agent 在有限的 context 裡,始終掌握最重要的事?
這個問題催生了 2024–2026 年的「Agent 記憶」創業潮。多數主流方案選擇以 Vector DB 為核心做被動檢索,Letta 的 OS 階層設計則選擇讓 Agent 主動管理記憶流動——兩者代表了兩種不同的設計方向,而非簡單的優劣之分。
---
Letta 是什麼
Letta 成立於 2024 年,前身是 MemGPT 研究專案。2025 年改名為 Letta,獲得 Felicis 領投的 10M USD seed 輪(2024 年 9 月,PRNewswire 報導)。
官方口號:"The platform for building stateful agents"——專門建構有狀態的 Agent,不只是給 Agent 加一個記憶層。
核心定位:Agent Runtime,不是記憶層。
多數記憶方案(Mem0、Zep、Cognee)都是讓你「加上去」的工具。Letta 的定位則是讓 Agent 直接跑在平台上面,記憶功能內建而非外加。
---
核心架構:三層記憶,仿作業系統
Letta 的設計概念:把 LLM context 視為虛擬記憶體,Agent 自己決定什麼要「載入 RAM」、什麼要「寫入硬碟」。
第一層:Core Memory(RAM)
- 直接存在 context window 裡
- Agent 可以像寫變數一樣直接讀寫
- 容量極小(受限於 context),但讀取速度是即時的
- 典型內容:Agent 的 persona、當前任務目標、最近對話的關鍵事實
第二層:Recall Memory(磁碟快取)
- 存在 context 外面,但仍屬於「熱」儲存
- 可以被完整檢索,但需要主動召回
- 容量較大,專門存放對話歷史
第三層:Archival Memory(冷儲存)
- Agent 透過 tool call 查詢,類似資料庫檢索
- 存放長期累積的經驗、歷史記錄、罕見但重要的資訊
- 需要時再召回,不用時不佔用 context
設計意圖:三層之間的調度,理論上是由 Agent 透過 tool call 自行決定。Agent 會因為「Core Memory 快滿了」而主動把內容移到 Recall,會因為「某件事很久沒用到」而放到 Archival。
---
與其他方案的對照
| Mem0 | Letta | Google Always On | |
|---|---|---|---|
| 定位 | 記憶層(外加) | Agent Runtime(內建) | 永遠運行的記憶 Agent |
| 誰決定記憶內容 | Mem0 被動萃取 | Agent 主動編輯(設計意圖) | IngestAgent 主動萃取 |
| 記憶組織 | 向量檢索 + 知識圖譜(Pro) | 三層 OS 階層 | 多 Agent 協作 |
| 整合方式 | SDK import | 平台 Migration | 獨立系統 |
關於 Letta 與 Google Always On 的比較:兩者都涉及記憶的主動整理,但在架構上有觀察到的差異。這個「方向相反」的觀察,主要來自對兩者文件結構的分析,並非有實證研究直接比較兩者效果,應視為分析性推論,而非已驗證事實。
---
與 GiGi / OpenClaw 的具體關聯
GiGi 現有的記憶架構:
- Core(短期):對話上下文
- 中期:memory/YYYY-MM-DD.md(每日日誌)
- 長期(熱):MEMORY.md
- 外部備份:AI_Brain repo
可以參考的概念:Letta 的三層之所以在文件裡看起來有組織,是因為每層有明確的「資料溫度」和使用頻率。GiGi 的四層架構本質上也有溫度之分,只是目前沒有自動的熱度追蹤機制。
Core Memory 的對照:GiGi 的 MEMORY.md 在概念上接近 Core Memory——體積極小(≤8KB)、最常用、最重要。但目前是純靜態的,不像 Letta 那樣由 Agent 動態置換。
差異點:Letta 的 Core Memory 由 Agent 自己維護,GiGi 的 MEMORY.md 由人類審閱和更新。這是刻意的設計選擇,不是技術限制。
---
誠實的限制
1. Letta 是整個平台置換,不是模組借鑒
如果只想借用「三層記憶」概念,Letta 的學習曲線和遷移成本比 Mem0 高得多。
→ 如果 GiGi 要借鑒,不需要遷移到 Letta,只需要把 Core/Recall/Archival 的概念應用到現有的 Markdown 架構。
2. Agent 自己管理記憶的代價
當 Agent 決定移動記憶時,會消耗 inference budget。如果 Agent 判斷錯誤,把重要資訊放到 Archival 而忘了召回,會造成遺漏。
→ 尚待確認:Letta 有沒有自動校準機制,還是純靠 Agent 自己的判斷?
3. 多 Agent 共享記憶尚未成熟
Letta 的 Shared Memory 模組是 2026 年的新功能,多個 Agent 共享同一個記憶庫的協作模式還沒有公開的大規模生產案例。
→ 尚待確認:JoJo 和 GiGi 是否可能走 Shared Memory 模式,還是需要各自的 Agent 獨立記憶?
---
可執行的下一步
目標:在不做任何新工具安裝的情況下,用 Prompt 設計實現「三層概念驗證」。
現有工具:MiniMax-M2.5 或 qwen3.5,不需要安裝任何東西。
做法:在每週定期的記憶維護環節加入記憶熱度標記:
每則 daily note 標注:
- 🔥 高頻:這週被引用 3 次以上 → 建議晉升到 MEMORY.md
- 📅 中頻:這週出現過但不到 3 次 → 留在 daily notes
- ❄️ 低頻:這週完全沒被用到 → 可考慮歸檔或刪除
這個做法呼應 Letta 的 OS 階層概念,但用 GiGi 現有的 Markdown 架構實現,不需要任何 Vector DB 或新平台。
---
這對 OpenClaw / GiGi / 現有 Markdown Memory 架構的實務啟發
可以直接借鑒的:
- 資料溫度分層思維:Letta 的 Core/Recall/Archival 三層,本質上是用「使用頻率」決定「存放位置」。GiGi 現有的架構(MEMORY.md / daily notes / AI_Brain)已有類似的溫度分層,只需要加上一個「熱度追蹤」的習慣——每週維護時主動標記,而非靜態累積。
- 記憶由 Agent 主動管理,而非人類被動寫入:Letta 的設計意圖是 Agent 自己決定記憶的放置和遷移。GiGi 目前是人類主導(Thomas 審閱 daily notes 更新 MEMORY.md),這個方向值得思考是否可以逐步加入 Agent 主動推薦的環節——例如每週維護時,Agent 主動提出「這則應該晋升、這則可以歸檔」的建議,而非被動等人類處理。
- Archival Memory 的概念:當 GiGi 的 daily notes 累積過多時,可以考慮一個「冷儲存」的判斷標準——一段時間(30 天)內完全沒被引用過的 notes,自動移入一個
memory/archive/目錄,而非一直留著佔空間。
不建議直接複製的:
- Letta 的 Agent 自主決策機制(Core Memory ↔ Archival 之間的調度)在 GiGi 目前的架構下,準確度和 hallucination 風險尚無充分驗證
- Letta 的平台級整合(整個 Agent 跑在上面)對於 GiGi 的分散式 Markdown 架構來說,置換成本遠高於參考價值
---
Claim Mapping / Source Audit
已確認事實(來自第一手來源):
- Letta 前身:MemGPT(MemGPT 時期曾有研究論文發表,但 arXiv URL 需實地核對)
- Letta 成立時間:2024 年;2025 年改名(MemGPT → Letta)
- 融資:Felicis 領投 10M USD seed(2024 年 9 月,PRNewswire 報導)
- License:Apache 2.0
- 三層記憶名稱:Core / Recall / Archival
- Agent 透過 tool call 管理記憶階層(文件描述的設計意圖)
作者推論(非直接引用,需謹慎看待):
- 「Letta 和 Google Always On 方向相反」——從兩者文件結構的觀察對比,並無直接實證研究支持
- 「三層模型代表一種假設:讓 Agent 自己管理記憶流動,可能是比被動向量檢索更符合 agent 原生精神的設計方向」——分析性假設,非已驗證結論
- 「Agent 會因為 Core Memory 快滿而主動置換」——文件描述的設計意圖,實際運行效果尚待社群驗證
- 「Letta 適合需要長期運行的個人化 Agent」——合理的方向判斷,缺乏系統性比較數據
尚待確認(需要一手驗證):
- Letta 的 Core Memory 自動置換實際效果是否有公開的效能報告
- 多 Agent Shared Memory 生產環境成熟度
- 與 OpenClaw 現有架構整合的可能性
- Agent 自己判斷記憶階層時的錯誤放置頻率
---
References
第一手來源(官方 / 原始檔):
- Letta 官方網站
- Letta GitHub — letta-ai/letta
- Letta 官方文檔
- MemGPT 原 arXiv 論文(⚠️ 待驗證:URL 存在性尚未實地核對)
- PRNewswire:Letta $10M Seed by Felicis(2024-09-24)
第二手來源(分析 / 解讀):
- Vectorize.io:Mem0 vs Letta 深度比較(2026)
- SudoAll.com:Letta — The Stateful Agent Runtime
- DEV Community:Top 6 AI Agent Memory Frameworks(2026)
---
Model / Framework / License: MemGPT → Letta / Agent Runtime / Apache 2.0
Categories: AI / Agent / Memory / OpenSource