0%

https://v.douyin.com/FNlCHl5dSoY/


一、问题的本质:大模型是临时工,不是管家

大家都觉得把一堆资料丢给大模型处理很高效,但卡帕西(Andrej Karpathy)在他那篇全网 2000 万阅读的推文里一针见血地指出:这其实是零积累的重复劳动。

为什么?因为你每一次对新资料提问,它都要从零开始重新搜索一遍所有文档。你的知识库越来越庞大,但大模型始终是个”临时工”——每次对话结束,什么都没留下。

卡帕西认为,个人知识库的终极形态,是**把大模型变成一个全职的”知识库管家”**。每当你存入一个新信息源,大模型会自动帮你整理、关联和更新所有相关笔记,把原本杂乱的知识库改造成一个能自动成长、持续产生知识复利的”第二大脑”。

二、三层架构:代码仓库怎么管,知识库就怎么管

学习新知识的过程可以拆解为三个环节:输入 → 内化 → 输出。这套知识库系统恰好用三层架构支撑这三个环节:

层级 对应环节 说明
Raw 文件夹 输入 存放最原始的数据材料,文章、视频、播客,直接丢进去
规则层 + Wiki 层 内化 规则层告诉 AI 如何理解你的知识库(目录结构、工作流);Wiki 层是 AI 自动维护的索引,精准定位知识
输出层 输出 基于知识库以多种形式输出内容

最精妙的设计在于闭环:如果 AI 给出了一个高质量的回答,你可以直接把它丢回 Raw 文件夹作为新的输入。 知识库形成不断自我强化的正循环。

用程序员熟悉的类比:Raw 目录就是 src 源码,大模型是编译器,Wiki 是构建产物。 代码仓库怎么管,知识库就怎么管。

三、五分钟实操:Obsidian + Claude Code

搭建这个系统只需要两个工具:

  • Obsidian:作为知识库的 IDE,管理 Markdown 文件和双向链接
  • AI Agent(以 Claude Code 为例):作为智能编译器,自动整理和关联知识

步骤 1:初始化目录

复制卡帕西给出的大纲内容,在终端输入提示词,AI 自动创建好目录结构并给出使用提示。

步骤 2:数据采集

直接把视频链接丢给 AI,它会自动提取转写内容并存入知识库。如果是网页文章,推荐 Obsidian 的网页剪藏插件,一键保存到本地。

步骤 3:自动关联与整理

这是最关键的步骤。 大模型检测到新增内容后,自动读取原材料、提取核心概念、建立双向链接。点进任何一个知识点,文章里的每个链接都能链到另一篇文章——知识网络就这样自动生长出来了。

四、核心规范文件:claw.md

AI 怎么知道该提取哪些概念、用什么格式组织?初始化时生成的 claw.md 文件就是这套规范的核心。里面包含:

  • 三层架构说明:Raw → Rules → Wiki
  • 项目目录结构:每个文件夹的用途
  • 工作流程规范:大模型严格按流程执行

最关键的一点:增量处理。 每次有新输入进来,AI 不会全量更新知识库,而是只处理新增内容,同时翻阅已有 Wiki 看是否有可以关联的已有概念。这意味着——知识处理过一遍,就变成永久资产。

五、提问与溯源:增强版 NotebookLM

知识存进去了,规则也有了,就可以直接向大模型提问了。比如问”什么是 AI Agent”,它不会去网上搜索,而是直接从 Wiki 目录中提取答案,并带着完整的引用链。

每个词条都标注了来自哪篇原始材料,点进去就能溯源。这就像是增强版的 NotebookLM——你拥有的不是一次性的问答,而是一个可溯源、可迭代、能自我成长的知识网络。

学习完成后,还可以让大模型根据知识库输出不同格式的内容,完成输出闭环。

六、知识复利的本质

绝大多数人用 AI 处理知识的方式是:问一次、答一次、扔一次。每次对话结束,什么都没留下。

这套工作流做了一件根本性不同的事:让每一次提问的结果,都沉淀为下一次提问的基础。

知识复利不是什么玄学概念,它是一个实实在在的工程问题:

  • 你的知识是源代码
  • 大模型是帮你整理和关联这些知识的编译器
  • Wiki 是构建出来的产物

当你把第一份材料丢进知识库的那一刻,你的第二大脑就开始运转了。


核心工具链:Obsidian(知识库 IDE)+ Claude Code(AI Agent 编译器)+ claw.md(规范文件)

核心原则:增量处理、自动关联、双向链接、形成闭环