AI Agent 的記憶層競賽:LLM 最根本的缺陷,誰來解決?
> 2026 年 2 月|研究小弟出品
---
為什麼「記憶」是 Agent 的阿基里斯腱?
你用 ChatGPT 聊完一個小時,關掉視窗、隔天再開——它什麼都不記得。
這不只是「使用體驗差」的問題。對一個要幫你管專案、處理客服、執行研究的 AI Agent 而言,每次對話從零開始,等同於每天早上你都要重新訓練一個新員工。
記憶層,正在從「加分功能」變成 Agent 的核心基礎建設。
---
市場有多大?成長有多快?
📊 市場規模(2025):62.7 億美元
📊 預估規模(2030):284.5 億美元
📊 年複合成長率:35.32%(CAGR)
📊 企業採用率:67% 的企業部署計畫在 2026 年導入記憶系統(2025 年僅 12%)
這個數字在說一件事:記憶層正從實驗性功能,快速轉為生產必備。
---
主要玩家:三種路線,三種賭注
Mem0(領先者,40%)
YC 出身,2025 年 10 月完成 2,400 萬美元 A 輪。
41,000+ GitHub stars、1,400 萬次 Python 套件下載、Q3 單季 1.86 億次 API 呼叫。
最關鍵的動作:成為 AWS Agent SDK 的唯一記憶供應商——這等於拿到雲端市場的入場券。
技術特色是記憶壓縮引擎,可將 prompt token 用量降低最多 80%,直接影響企業的 API 成本。
Letta / MemGPT(學術派,25%)
UC Berkeley 研究室出身,2024 年從 MemGPT 改名為 Letta。
靈感來自作業系統的記憶體分層設計:核心記憶(in-context)、召回記憶(可搜尋歷史)、檔案記憶(向量長期儲存)。
2025 年底推出 Letta Code,在 Terminal-Bench 上奪得開源 coding agent 第一名。
2026 年 2 月新增 git-based context repositories,讓記憶可以像程式碼一樣版本管理——這是個很有意思的方向。
SurrealDB(資料庫整合派,20%)
2026 年 2 月完成 2,300 萬美元 Series A 擴展,累計 4,400 萬美元。
核心賭注:不需要「專門的記憶層」,只需要一個能同時處理關聯、向量、圖譜、時序資料的統一資料庫。
2.3M 次下載、31,000+ GitHub stars。如果這個賭注對了,整個記憶層市場的中間層就可能被資料庫層吃掉。
---
技術架構演進:從「找資料」到「真的記住了」
傳統 RAG(Retrieval-Augmented Generation)像一個圖書館——你問什麼,它找什麼,找完就結束。
沒有時間感、沒有因果邏輯、沒有多 Agent 協作能力。
2025-2026 的新架構在解決什麼?
三層記憶模型(業界標準化中)
第一層是情節記憶(Episodic):按時間順序記錄發生過的事,支援稽核與時序推理。
第二層是語意記憶(Semantic):可變動的共享知識、學習到的偏好與模式。
第三層是狀態記憶(State):即時的系統狀態,如餘額、庫存、進行中的任務。
MAGMA 多圖架構(arXiv:2601.03236)
同時維護語意圖、時序圖、因果圖、實體關係圖四個正交圖,查詢時根據問題類型選擇最適合的圖進行遍歷。比純向量搜尋細膩很多。
Zep / Graphiti 時序知識圖譜
在 DMR 基準上達到 94.8%(vs MemGPT 的 93.4%),企業任務延遲降低 90%。
---
成本效益:這才是企業真正在意的
📊 Token 節省:記憶壓縮可減少 60–80% 的重複 token
📊 客服成本實例:$2,400/月(無記憶)→ $960/月(有記憶),同樣 10 萬次對話
📊 解決時間:8.3 分鐘(無記憶)→ 3.1 分鐘(有記憶)
📊 首次解決率:68% → 91%
這些數字讓「記憶層」從技術討論變成財務決策。CFO 看得懂的語言。
---
台灣的位置在哪裡?
台灣在 AI Agent 記憶層的直接參與幾乎是零。但這不代表沒有機會——反而有幾個具體切入點。
硬體 × 記憶層的交叉點(最直接)
記憶層的核心瓶頸之一是向量索引的記憶體需求。
1 億個向量用 HNSW 索引可能需要 100-200GB RAM;Disk-optimized 方案(DiskANN、pgvectorscale)正在成為解法。
台灣的 DRAM 廠商(南亞科、威剛)、HBM 佈局(SK Hynix 在台廠)、以及台積電的 CoWoS 封裝,都直接影響記憶密集型推論工作的成本曲線。
這是台灣「被動受益」的方式——不需要做軟體,但晶片需求上來了。
ChipAgents 的先行案例(最值得追蹤)
台灣出現了 ChipAgents,一家用 Agentic AI 加速晶片設計的公司,已募資 7,400 萬美元。
這是台灣罕見的「用 AI Agent 解決台灣最強的問題(IC 設計)」的案例。
如果記憶層讓 AI Agent 能跨工程師、跨週期記住整個晶片設計的脈絡,對台灣 IC 設計產業的加速效果會非常可觀。
應用層機會(被忽視的缺口)
Andrew Ng 說台灣最大的機會在應用層。
記憶層目前的應用場景以美國客服、SaaS 為主。但台灣有幾個特殊場景尚未被開發:
製造業的「機台記憶」——同一台機器跨班次、跨操作員,設備 Agent 需要記住調機歷史。
醫療院所的「跨診記憶」——台灣健保資料豐富,但 AI 輔助診斷缺乏跨次就診的連貫記憶層。
供應鏈的「客戶偏好記憶」——台灣中小型製造商服務全球買家,但沒有系統性的偏好管理。
---
接下來六個月要觀察什麼?
Mem0 的 AWS 整合深度
成為 AWS Agent SDK 唯一記憶供應商,但實際的企業採用速度才是真正的考驗。
如果 AWS 開始對記憶 API 計費(如同 Google Vertex AI 的方向),整個市場的貨幣化模型就底定了。
SurrealDB 的「資料庫吃掉記憶層」假說
如果統一多模型資料庫真的能取代專門的記憶層,Mem0 和 Letta 的市場空間就會被壓縮。
這是一個值得六個月後回頭驗證的競爭假說。
多 Agent 記憶共享的標準化
Letta 在 2026 年 1 月推出 Conversations API,開始讓多個 Agent 共享記憶。
這個方向如果被業界採納,記憶層就不只是「單一 Agent 的功能」,而是多 Agent 協作的基礎協議——這是整個賽局的升級。
---
一句話結論
記憶層是 2026 年 AI Agent 軍備競賽的彈藥庫。
Mem0 卡住了 AWS 入口,Letta 押注學術路線,SurrealDB 想從資料庫層反包。
台灣的機會不在做記憶層本身,而在把記憶層接進台灣最懂的行業——IC 設計、精密製造、醫療院所——讓那些場景的 Agent 真的記得住。
---
資料來源:TechCrunch, arXiv (2601.09913, 2601.03236, 2501.13956), Letta Blog, Mem0 官網, SurrealDB 官網, DIGITIMES, AI Fund Taiwan