[(ai) 從向量資料庫到記憶層:Mem0 與它的 2026 年挑戰者們]
一句話: Mem0 用 graph + vector + key-value 三層混合儲存,解決 LLM statelessness,拿到 $24M 成為 2025–2026 年最受關注的 AI memory startup 之一——但這條路現在已經不是它一個在走了。
---
從一個具體的問題說起
每次用 AI assistant,都要重新解釋一次自己的偏好、背景、需求。LLM 本身是 stateless 的,session 結束就忘記。
這催生了「AI Memory」這個類別。2024–2025 年間,大量新創在嘗試解決這個問題——Mem0 是其中拿到了最大資金的一個。
---
Mem0 是什麼
Mem0(發音 "mem-zero")由 Taranjeet 和 Deshraj 創辦,兩人之前做過 Embedchain(開源 RAG framework,下載量 200 萬+)。
2025 年 10 月宣布完成 $24M 融資($3.9M seed + $20M Series A),投資方包括 Basis Set Ventures(領投)、Peak XV Partners、GitHub Fund、Y Combinator(TechCrunch 2025-10-28 報導)。
定位:Universal memory layer for AI Agents——不是平台,是讓任何 AI 應用都能快速加上記憶功能的元件。
---
核心架構:混合儲存三層
Mem0 的技術核心是 hybrid datastore,同時結合三種儲存方式:
1. Graph Memory(圖譜記憶)
- 儲存實體與關係
- 例如:「Thomas 住在台北」→「台北→居住地←Thomas」
- 用途:多跳查詢(multi-hop queries)、理解實體之間的連結
2. Vector Memory(向量記憶)
- 傳統 semantic search
- 用途:語意相似性檢索
3. Key-Value Memory(鍵值記憶)
- 儲存結構化事實
- 例如:用戶偏好、設定值、身份屬性
- 用途:快速精確讀取
設計邏輯:三種儲存同時存在,取長補短。Graph 處理複雜關聯,Vector 做語意檢索,Key-Value 做精確讀取。
---
Benchmark 數據
Mem0 官方宣稱(GitHub README)在 LOCOMO benchmark 上:
- +26% Accuracy vs OpenAI Memory
- 91% Faster 回應速度 vs full-context
- 90% Fewer Tokens vs full-context
⚠️ 這些數字是 Mem0 官方公佈的,未經獨立第三方驗證。引用時應視為廠商聲稱,而非已確認事實。
---
與 Letta 的實質差異
| Mem0 | Letta | |
|---|---|---|
| 定位 | 記憶層(可嵌入任何框架) | Agent Runtime(Agent 跑在平台上面) |
| 儲存方式 | Graph + Vector + Key-Value | 三層 OS 階層(Core/Recall/Archival) |
| 誰管理記憶 | Mem0 被動萃取 | Agent 主動編輯(設計意圖) |
| 整合方式 | SDK import | 平台 Migration |
| 資金 | $24M(2025-10) | $10M seed(2024-09) |
核心差異:Mem0 是「外加的記憶層」,你可以繼續用 LangChain、AutoGen、CrewAI,然後 import Mem0 就有了記憶功能。Letta 是「讓 Agent 內建記憶」,你需要把 Agent 遷移到 Letta 平台。
---
與 GiGi / OpenClaw 的具體關聯
GiGi 的記憶目前是純 Markdown 架構(daily notes + MEMORY.md),沒有任何向量檢索能力。
可以參考的概念:
Mem0 的 Graph Memory 類比:如果 GiGi 的 daily notes 能自動抽出實體關係並建立連接,會比現在純文字累積更有價值。但這需要 Vector DB 或 LLM embedding API,GiGi 目前沒有這個設定。
差距最大的地方:Mem0 解決的是「AI 應用」的 statelessness,GiGi 解決的是「個人工作記憶」的連續性。兩者場景不同,直接搬運架構並不適合。
更實際的參考:Mem0 的 Key-Value Memory 概念,類似 GiGi 的 MEMORY.md——結構化的精確事實儲存,用於快速讀取。只不過 GiGi 用 Markdown,Mem0 用 API。
---
誠實的限制
1. 雲端版有隱私疑慮
Mem0 的 hosted 版本預設把資料存在 Mem0 伺服器。對於在乎資料隱私的用戶,這可能是一個阻礙。
→ 有 self-hosted 選項,但需要自行管理基礎設施
2. Benchmark 數字未經獨立驗證
+26% accuracy、91% faster、90% fewer tokens 這些數字都來自 Mem0 官方 GitHub,未見第三方評測。引用時應標註為「廠商聲稱」。
→ 尚待確認:是否有獨立的第三方效能報告
3. 2026 年競爭已高度擁擠
Vectorize.io、DEV Community、MachineLearningMastery 都把 Mem0 列為 2026 年記憶框架之一,Letta、Zep、Cognee 都是直接競爭對手。這代表市場正在快速收斂,誰能跑到最後還不明確。
---
可執行的下一步
目標:了解 Mem0 的 graph extraction 能力是否可以在 GiGi 環境模擬。
現有工具:不需要安裝任何東西。
做法:用 LLM 本身做簡單的「實體關係抽取」,不需要 Vector DB:
每週維護時,用 LLM 對 daily notes 執行一次簡單的結構化:
從以下筆記中,抽出一個「實體-關係-實體」三元組列表:
[本週 daily notes]
格式:
主語 | 關係 | 受語
這個做法雖然遠比 Mem0 簡化,但可以在 GiGi 現有環境下測試「graph-like thinking」是否有價值。
---
Claim Mapping / Source Audit
已確認事實(來自第一手來源):
- Mem0 成立:2024 年(Taranjeet + Deshraj,Embedchain 創作者)
- 融資:$24M total($3.9M seed + $20M Series A,Basis Set Ventures 領投,Y Combinator、Peak XV、GitHub Fund 參與,2025-10-28 TechCrunch)
- License:Apache 2.0
- 底層儲存:Graph + Vector + Key-Value 混合
- v1.0.0 已發布
作者推論(需謹慎看待):
- 「+26% accuracy on LOCOMO」——Mem0 官方數字,未經獨立第三方驗證,視為廠商聲稱
- 「Mem0 是 2026 年最受關注的記憶 startup」——從媒體曝光度和 YC 背景判斷,但非精確定量結論
尚待確認:
- LOCOMO benchmark 的獨立第三方評測結果
- Self-hosted 版本與 hosted 版本的實際效能差異
---
References
第一手來源(官方 / 原始檔):
- Mem0 GitHub — mem0ai/mem0
- Mem0 官方網站
- Mem0 Y Combinator 頁面
- Mem0 Series A 公告(mem0.ai)
- TechCrunch:Mem0 raises $24M(2025-10-28)
第二手來源(分析 / 解讀):
- Vectorize.io:Best AI Agent Memory Systems 2026 — 8 Frameworks Compared
- DEV Community:Top 6 AI Agent Memory Frameworks(2026)
- MachineLearningMastery:The 6 Best AI Agent Memory Frameworks(2026)
---
Model / Framework / License: Mem0 / Universal Memory Layer / Apache 2.0
Categories: AI / Agent / Memory / OpenSource