如果你在用 OpenClaw,应该已经感受到了 token 消耗的速度——尤其 Claude 用户,没谈几轮下来就 hit limit 了。而且,很多时候 agent 塞了一堆无关信息进 context,不仅费钱,还影响精准度。

有没有办法让 agent “精准回忆”,同时完全零成本?

有。qmd —— 本地运行,免费永久,精准度 95% 以上。

什么是 qmd?

qmd 是 Shopify 创始人 Tobi 开发的本地语义搜索引擎,基于 Rust 构建,专为 AI Agent 设计。

核心特性:

  • 混合搜索:BM25 全文 + 向量语义 + LLM 重排序
  • 零 API 成本:完全本地运行,无需联网
  • MCP 集成:与 AI Agent 无缝对接

3 步配置,10 分钟搞定

第 1 步:安装 qmd

首先安装 Bun,然后执行:

bun install -g github:tobi/qmd

首次运行会自动下载模型(Embedding 和 Reranker),下载完成后即可完全离线运行。

第 2 步:创建记忆库 + 生成 Embeddings

进入 OpenClaw 工作目录,索引你的 memory 文件夹:

# 创建记忆库
qmd collection add memory --name daily-logs --mask "**/*.md"

# 生成 embeddings
qmd embed

索引速度极快,本地运行不联网。

第 3 步:测试搜索

# 混合搜索(最精准)
qmd query "关键词"

# 纯语义搜索
qmd vsearch "关键词"

进阶:MCP 集成

让 AI Agent 直接调用 qmd,在 mcporter.json 里添加配置:

{
  "mcpServers": {
    "qmd": {
      "command": "/Users/你的用户名/.bun/bin/qmd",
      "args": ["mcp"]
    }
  }
}

配置完成后,agent 会主动从历史 log 中找最相关的段落,跨文件精准回忆,不再需要手动提醒。

实际效果

场景 优化前 优化后
用户偏好回忆 整个 2000 token 的 MEMORY.md 仅返回相关的 200 token
跨文件检索 手动查找或全量加载 自动精准匹配,准确率极高

总结

如果你在用 OpenClaw 觉得 token 烧得心疼,qmd 是目前最实用的解决方案——免费、本地、精准,赶紧折腾起来!