Obsidian-Graphify-让你的笔记库自己长出知识图谱

张开发
2026/4/17 14:19:43 15 分钟阅读

分享文章

Obsidian-Graphify-让你的笔记库自己长出知识图谱
前言“你的笔记不是太少是太散了。”最近AI 大神 Andrej Karpathy 发了一个 Gist提出了一个让我拍大腿的想法——LLM Wiki。简单说就是别再让 AI 每次从零开始检索文档了让它帮你维护一个持续积累、自动更新的知识库。卡帕西原文https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f想法很好但卡帕西只给了理念没给工具。结果没过几天开源社区就有人把它做出来了——Graphify一个 Claude Code 技能一条命令就能把任何文件夹变成可交互的知识图谱。Graphify 项目地址https://github.com/safishamsi/graphify/tree/v4我用它把仓库里 65 篇文章跑了一遍效果惊艳。今天就带你从原理到实操完整走一遍。 卡帕西说了什么大多数人用 AI 管理知识的方式是RAG上传一堆文件AI 在提问时检索相关片段然后生成回答。问题是每次提问AI 都在从零开始。你问一个需要综合 5 篇文档的问题AI 就得重新找、重新拼。知识没有被积累也没有被结构化。卡帕西提出了一种完全不同的思路让 LLM 持续地、增量地构建和维护一个wiki——一组结构化的、相互链接的 Markdown 文件。每次你加入新资料LLM 不只是索引它而是读取、提取关键信息、整合到已有的 wiki 中。核心架构分三层Raw原始资料你的文章、论文、截图不可变AI 只读Wiki知识图谱AI 生成的概念页、实体页、对比页相互链接Schema规则文件告诉 AI 怎么维护这个 wiki用卡帕西自己的话说“Obsidian 是 IDELLM 是程序员wiki 是代码库。”️ Graphify从理念到成品Graphify 就是卡帕西理念的完整实现。它是一个 Claude Code 技能Skill一条命令就能把你的文件夹变成知识图谱。支持的不只是 Markdown——代码、PDF、截图、流程图、白板照片统统可以丢进去。它做了什么Graphify 分两轮提取第一轮结构提取免费不需要 LLM用 tree-sitter 对代码文件做 AST 分析提取类、函数、导入关系。这一步完全在本地运行零 token 消耗。第二轮语义提取需要 LLM并行调度 Claude 子代理处理文档、PDF 和图片提取概念、关系和设计动机不只是做了什么还有为什么这么做。两轮结果合并后用Leiden 社区发现算法做聚类最终输出三样东西输出文件说明graph.html可交互的知识图谱可视化节点按社区着色GRAPH_REPORT.md分析报告God Nodes、意外连接、建议提问graph.json持久化图谱数据跨会话可用关键亮点诚实审计每条关系都标注了EXTRACTED源文件中明确存在的、INFERRED合理推断附带置信度分数或AMBIGUOUS有歧义。你始终知道哪些是真发现的哪些是 AI 猜的Token 压缩官方测试数据52 个文件代码论文图片的知识库每次查询 token 消耗降低71.5 倍增量更新SHA256 缓存机制重复运行只处理变更过的文件 5 分钟安装 Graphify前提条件Python 3.10、Claude CodeStep 1安装 GraphifypipinstallgraphifyygraphifyinstallPyPI 包名暂时叫graphifyy因为graphify这个名字还在回收但 CLI 和 Skill 命令都是graphify。Step 2运行全量构建在 Claude Code 里输入/graphify .就这么一条命令。Graphify 会自动检测文件类型分派子代理并行处理最终生成完整的知识图谱。我的仓库跑了大约 5 分钟结果Corpus: 89 files · ~51,110 words 316 nodes · 277 edges · 66 communities Top God Nodes: MCP (16 edges), Skills (8), CLAUDE.md (8)Step 3配置常驻模式推荐图构建完成后在项目目录运行graphify claudeinstall这会做两件事在CLAUDE.md里写入规则告诉 Claude 回答问题前先读GRAPH_REPORT.md安装PreToolUse hook每次搜索文件时自动注入图谱上下文配置完成后即使你不手动输入/graphifyClaude Code 也会自动参考知识图谱来回答问题。 实战效果我的 65 篇文章变成了什么跑完之后我得到了一张可交互的知识图谱66 个社区每个社区用不同颜色标注。打开graph.html最直观的感受是原来我的文章之间有这么多隐藏连接God Nodes核心枢纽图谱告诉我我的知识库最核心的概念是MCPModel Context Protocol— 16 条连接当之无愧的枢纽之王SkillsAI Agent 技能系统— 8 条连接CLAUDE.md 持久记忆— 8 条连接Claude Code— 7 条连接这说明我的写作重心一直在 AI 工具链上MCP 是贯穿所有文章的核心线索。意外连接Surprising Connections最让我惊喜的是意外连接部分。Graphify 发现了一些我自己都没注意到的关联Google 翻译实时对话和Transformer 自注意力机制居然被连在了一起——确实实时翻译的底层就是 TransformernvmNode 版本管理器和SDKMANJava 版本管理器被识别为语义相似——都是 macOS 上的版本管理工具WSL2 Backend for Docker和WSL2 Networking跨文件建立了连接——两篇不同文章里的 WSL2 知识被自动关联这些连接是你在手动管理笔记时永远不会发现的。 配合 Obsidian Web Clipper闭环工作流知识库不是一次性工程需要持续维护。这里推荐一个完美搭配Obsidian Web Clipper。它是什么Obsidian 官方出品的免费浏览器插件支持 Chrome、Edge、Firefox。看到好文章一键剪藏到你的 Obsidian vault。配置方法浏览器安装 Obsidian Web Clipper 插件打开插件设置点击左侧“Default”模板把“笔记位置”Note Location改成raw/articles如果你有多个 vault在常规设置里添加保管库名称然后在模板里选择对应的 vault这样每次剪藏的内容都会自动存到raw/articles/目录。我的日常维护工作流浏览器浏览 → 发现好文章 → Web Clipper 一键剪藏 → 存入 raw/articles/ ↓积累 2-3 天 打开 Claude Code → 检查新素材更新知识库 ↓自动执行 读取新文件 → 更新 wiki 概念页 → 更新图谱 → 完成完全不需要记命令用自然语言跟 Claude Code 说就行。 Graphify 常用命令速查命令说明/graphify .全量构建知识图谱/graphify . --update增量更新只处理变更文件/graphify query 你的问题查询知识图谱/graphify path 概念A 概念B查找两个概念之间的路径/graphify explain 概念名用自然语言解释某个节点/graphify add url抓取网页并加入图谱日常使用中你只需要记住两条加了新素材→/graphify . --update想查知识→/graphify query 你的问题 为什么这套方案值得试回过头看Graphify 解决的核心问题是知识管理的痛点不在阅读和思考而在整理和维护。人为什么放弃维护 wiki因为交叉引用、同步更新、发现矛盾这些体力活太枯燥了。LLM 不会厌倦不会忘记更新一个交叉引用一次可以修改 15 个文件。人的工作是筛选素材、引导分析、提出好问题。AI 的工作是其他所有事情。就像卡帕西说的这个想法和 1945 年 Vannevar Bush 提出的 Memex 一脉相承——一个私人的、精心策展的知识库文档之间的连接和文档本身一样有价值。Bush 没能解决的问题是谁来做维护现在LLM 来了。

更多文章