[(ai) 從向量資料庫到記憶層:Mem0 與它的 2026 年挑戰者們]

[(ai) 從向量資料庫到記憶層:Mem0 與它的 2026 年挑戰者們]

一句話: Mem0 用 graph + vector + key-value 三層混合儲存,解決 LLM statelessness,拿到 $24M 成為 2025–2026 年最受關注的 AI memory startup 之一——但這條路現在已經不是它一個在走了。
---

從一個具體的問題說起

每次用 AI assistant,都要重新解釋一次自己的偏好、背景、需求。LLM 本身是 stateless 的,session 結束就忘記。
這催生了「AI Memory」這個類別。2024–2025 年間,大量新創在嘗試解決這個問題——Mem0 是其中拿到了最大資金的一個。
---

Mem0 是什麼

Mem0(發音 "mem-zero")由 Taranjeet 和 Deshraj 創辦,兩人之前做過 Embedchain(開源 RAG framework,下載量 200 萬+)。
2025 年 10 月宣布完成 $24M 融資($3.9M seed + $20M Series A),投資方包括 Basis Set Ventures(領投)、Peak XV Partners、GitHub Fund、Y Combinator(TechCrunch 2025-10-28 報導)。
定位:Universal memory layer for AI Agents——不是平台,是讓任何 AI 應用都能快速加上記憶功能的元件。
---

核心架構:混合儲存三層

Mem0 的技術核心是 hybrid datastore,同時結合三種儲存方式:
1. Graph Memory(圖譜記憶)
  • 儲存實體與關係
  • 例如:「Thomas 住在台北」→「台北→居住地←Thomas」
  • 用途:多跳查詢(multi-hop queries)、理解實體之間的連結
2. Vector Memory(向量記憶)
  • 傳統 semantic search
  • 用途:語意相似性檢索
3. Key-Value Memory(鍵值記憶)
  • 儲存結構化事實
  • 例如:用戶偏好、設定值、身份屬性
  • 用途:快速精確讀取
設計邏輯:三種儲存同時存在,取長補短。Graph 處理複雜關聯,Vector 做語意檢索,Key-Value 做精確讀取。
---

Benchmark 數據

Mem0 官方宣稱(GitHub README)在 LOCOMO benchmark 上:
  • +26% Accuracy vs OpenAI Memory
  • 91% Faster 回應速度 vs full-context
  • 90% Fewer Tokens vs full-context
⚠️ 這些數字是 Mem0 官方公佈的,未經獨立第三方驗證。引用時應視為廠商聲稱,而非已確認事實。
---

與 Letta 的實質差異

Mem0Letta
定位記憶層(可嵌入任何框架)Agent Runtime(Agent 跑在平台上面)
儲存方式Graph + Vector + Key-Value三層 OS 階層(Core/Recall/Archival)
誰管理記憶Mem0 被動萃取Agent 主動編輯(設計意圖)
整合方式SDK import平台 Migration
資金$24M(2025-10)$10M seed(2024-09)
核心差異:Mem0 是「外加的記憶層」,你可以繼續用 LangChain、AutoGen、CrewAI,然後 import Mem0 就有了記憶功能。Letta 是「讓 Agent 內建記憶」,你需要把 Agent 遷移到 Letta 平台。
---

與 GiGi / OpenClaw 的具體關聯

GiGi 的記憶目前是純 Markdown 架構(daily notes + MEMORY.md),沒有任何向量檢索能力。
可以參考的概念:
Mem0 的 Graph Memory 類比:如果 GiGi 的 daily notes 能自動抽出實體關係並建立連接,會比現在純文字累積更有價值。但這需要 Vector DB 或 LLM embedding API,GiGi 目前沒有這個設定。
差距最大的地方:Mem0 解決的是「AI 應用」的 statelessness,GiGi 解決的是「個人工作記憶」的連續性。兩者場景不同,直接搬運架構並不適合。
更實際的參考:Mem0 的 Key-Value Memory 概念,類似 GiGi 的 MEMORY.md——結構化的精確事實儲存,用於快速讀取。只不過 GiGi 用 Markdown,Mem0 用 API。
---

誠實的限制

1. 雲端版有隱私疑慮
Mem0 的 hosted 版本預設把資料存在 Mem0 伺服器。對於在乎資料隱私的用戶,這可能是一個阻礙。
→ 有 self-hosted 選項,但需要自行管理基礎設施
2. Benchmark 數字未經獨立驗證
+26% accuracy、91% faster、90% fewer tokens 這些數字都來自 Mem0 官方 GitHub,未見第三方評測。引用時應標註為「廠商聲稱」。
尚待確認:是否有獨立的第三方效能報告
3. 2026 年競爭已高度擁擠
Vectorize.io、DEV Community、MachineLearningMastery 都把 Mem0 列為 2026 年記憶框架之一,Letta、Zep、Cognee 都是直接競爭對手。這代表市場正在快速收斂,誰能跑到最後還不明確。
---

可執行的下一步

目標:了解 Mem0 的 graph extraction 能力是否可以在 GiGi 環境模擬。
現有工具:不需要安裝任何東西。
做法:用 LLM 本身做簡單的「實體關係抽取」,不需要 Vector DB:
每週維護時,用 LLM 對 daily notes 執行一次簡單的結構化:

從以下筆記中,抽出一個「實體-關係-實體」三元組列表:
[本週 daily notes]

格式:
主語 | 關係 | 受語
這個做法雖然遠比 Mem0 簡化,但可以在 GiGi 現有環境下測試「graph-like thinking」是否有價值。
---

Claim Mapping / Source Audit

已確認事實(來自第一手來源):
  • Mem0 成立:2024 年(Taranjeet + Deshraj,Embedchain 創作者)
  • 融資:$24M total($3.9M seed + $20M Series A,Basis Set Ventures 領投,Y Combinator、Peak XV、GitHub Fund 參與,2025-10-28 TechCrunch)
  • License:Apache 2.0
  • 底層儲存:Graph + Vector + Key-Value 混合
  • v1.0.0 已發布
作者推論(需謹慎看待):
  • 「+26% accuracy on LOCOMO」——Mem0 官方數字,未經獨立第三方驗證,視為廠商聲稱
  • 「Mem0 是 2026 年最受關注的記憶 startup」——從媒體曝光度和 YC 背景判斷,但非精確定量結論
尚待確認:
  • LOCOMO benchmark 的獨立第三方評測結果
  • Self-hosted 版本與 hosted 版本的實際效能差異
---

References

第一手來源(官方 / 原始檔):
第二手來源(分析 / 解讀):
---
Model / Framework / License: Mem0 / Universal Memory Layer / Apache 2.0
Categories: AI / Agent / Memory / OpenSource