把 Markdown 笔记变成可问答的知识图谱本地 Graph RAG 工具 Kwipu 实测你有没有这种困境Obsidian 或者本地 Markdown 笔记越积越多却只能靠关键词搜索根本无法跨文件追问「这个概念和那个概念有什么关联」Kwipu想解决的正是这个问题——它把你的 Markdown 笔记目录构建成一张可被本地 LLM 查询的知识图谱Property Graph实现真正的自然语言 QA。全程本地不碰云端。它是怎么工作的Kwipu 的核心管道非常清晰Markdown 文件 → 预处理解析 [[wikilinks]] 和 YAML frontmatter → LLM 提取实体 关系三元组 → Property Graph Index持久化到 storage_graph/ → 混合检索Vector BM25 时间维度 同义词 → LLM 生成回答区别于普通 RAG 只做向量相似度检索Kwipu 引入了图结构每个实体、每条关系都被提取出来查询时同时走向量、BM25 和图关系命中质量更高尤其适合知识密度高的笔记库。核心特性一览特性说明完全本地基于 Ollama 运行数据不出本机Graph RAG实体-关系三元组 混合检索增量更新新增一个文件只需 20-60s无需全量重建Obsidian 友好自动识别[[wikilinks]].obsidian/配置忽略多语言支持通过lang_config.py配置持久化图索引构建一次后续查询秒级加载快速上手环境要求Ollama本地推理引擎推荐模型llama3.1:8b/qwen2.5:7b/mistral:7bEmbeddingnomic-embed-text# 克隆项目gitclone https://github.com/benmaster82/KwipucdKwipu pipinstall-rrequirements.txt# 拉取所需模型ollama pull qwen2.5:7b ollama pull nomic-embed-text# 把笔记放到 knowledge_base/ 或修改 geode_graph.py 中的 KNOWLEDGE_DIR# Obsidian 用户直接指向 vault 路径即可# 启动python geode_graph.py首次运行会构建图索引时间取决于笔记数量笔记数量GPU7BCPU7B5 篇~2 分钟~5 分钟20 篇~7 分钟~20 分钟100 篇~35 分钟~100 分钟500 篇~3 小时不建议重要构建完成后图结构持久化到磁盘后续启动秒级加载新增文件增量更新约 20-60 秒。硬件需求参考组件内存占用Ollama LLM7B Q4~5-6 GBEmbedding 模型~300 MB图索引构建0.5-4 GB查询阶段200-500 MB7B 方案合计约 8-12 GB推荐最低配置16 GB 内存 独立显卡有 GPU 加速差距明显。一个实用技巧先云后本地Kwipu 项目文档里有个思路很有意思用一次性的强力云模型通过 Ollama API 接入构建知识图谱然后切换成轻量本地模型日常查询。图结构实体、关系、三元组一旦构建完成就和模型解耦了切换模型不需要重建图只影响回答生成质量。这意味着你可以用qwen2.5:72b做一次高质量的知识提取然后用3b模型来低成本日常查询——相当节省算力。适合谁用Obsidian 重度用户笔记多、关联密想要跨文件知识问答个人知识库管理者不愿意把笔记传云端追求完全离线研究/阅读笔记积累者大量摘录、读书笔记需要跨文件回溯对 RAG 感兴趣的开发者Graph RAG 的落地参考实现总结Kwipu 不是又一个向量数据库套 LLM 的玩具。它真正做到了把非结构化 Markdown 笔记转化为有明确图结构的知识库查询路径更丰富回答质量更稳定。全本地、MIT 开源、对 Obsidian 零侵入——如果你在找一个认真对待「知识管理」这件事的本地 RAG 工具Kwipu 值得一试。项目地址github.com/benmaster82/Kwipu