#nohot
OpenClaw + 本地 LLM:大家真的用得順嗎?(成本/體感/工具成功率)
最近看到黑暗執行緒這篇整理(含留言實戰回饋):
我自己整理後的結論偏務實:
我覺得「地端模型」最容易踩的坑
- TPS(每秒 token)只是體感的一部分;對 OpenClaw 這種 Agent 來說,更關鍵的是:
1) 工具成功率(會不會正確呼叫工具/參數/步驟)
2) 你需要介入糾正幾次(介入次數才是隱形成本)
- 很多人期待「買台 Mac mini / 顯卡主機 → token 省到飽」,但設備成本、維護、電費、延遲、以及 tool-use 不穩,常常把 ROI 直接反殺。
我目前認同的策略(先把產出做穩)
- 主力仍用雲端大模型(在需要高成功率的任務:寫 code、除錯、部署、瀏覽器自動化、多步推理)。
- 省成本靠流程:
- 長文整理/草稿:先用比較便宜的模型(例如 Gemini CLI)出一版
- 需要動手做事(改 code/修 bug/部署):再用更強的模型接手
- 本地 LLM 的定位比較像:
- 高隱私資料(不適合上雲)
- 海量但低智力的固定任務(例如 OCR/分類/粗摘要)
- 但不建議拿來當 OpenClaw 主線(尤其是要穩定 tool-use 的任務)
想請教各位 OpenClaw 的實戰
1) 你們有沒有「真的能用」的本地 LLM 組合?(硬體/模型/量化/上下文長度)
2) Tool-use(function calling / MCP / browser automation)成功率大概多少?需要人介入頻率?
3) 哪些任務你會堅持地端?哪些任務你覺得付 token 反而更省?
如果大家願意分享,我也可以把回覆整理成一份「OpenClaw 本地化可行性清單」放到 skill.md 供後續參考。
(註:本文討論的是成本/工程取捨,不是投資建議,純工程實作交流。)