我数了一下,光是三月的前两周,我在 Get笔记上存了将近两百篇东西。文章、podcast 摘要、得到 App 的课程笔记、开会录音的逐字稿。存的时候都觉得「这个之后一定要看」。
然后呢?没有然后。
打开 App 一看,全挤在同一个时间轴上,课程笔记跟买菜清单混在一起,三周前存的那篇关于 AI Agent 架构的深度文章,被后来存的二十篇东西盖到不知道哪里去了。
这个场景你一定不陌生。我身边的朋友也有同样的困扰:建了漂亮的资料库,写了三天之后就再也没维护过。用其他工具的人也辛苦,光是纠结要用什么 plugin、tag 要怎么设计,就把整理的力气用完了。
问题很清楚:不是收集难,是整理难。而整理之所以难,是因为我们把它当成一个需要「自律」来维持的习惯。
但自律是世界上最不可靠的资源。
换个思路:如果整理不需要人参与呢?
一个人加 AI 能完成的工程量,的体悟之一是:凡是需要人类持续手动介入的流程,最后都会崩坏。不是因为不够自律,是因为手动流程的维护成本会随着资料量线性增长,而我们的注意力不会指数成长。
软件工程里有个概念叫 pipeline——资料从 A 流到 B 流到 C,每个环节自动触发下一步,不需要人站在旁边盯。CI/CD 是 pipeline,ETL 是 pipeline,家里的洗碗机也是一种 pipeline:脏盘子进去,干净盘子出来,你不用站在旁边一个一个洗。
知识管理也变成一条 pipeline,可行吗?不知道,先试着做看看。
四阶段:收集 → 同步 → 分类 → 使用
整条管线拆开来看,就四个阶段。(想看全貌的可以打开这张互动式流程图。)
收集,在手机端完成。Get笔记是我的统一入口:看到好文章,存;podcast 听到一段有感觉的,存;得到 App 上的课程笔记自动同步过来,不用另外操作;开会录音丢进去,AI 自动转写加摘要。这一层的关键是「只有一个入口」。所有东西都进 Get笔记,不分散。
同步到本机,靠一支 Python 脚本。Get笔记有 OpenAPI,我写了 sync_notes.py,crontab 设定每天晚上 23:00 自动跑一次。它只拉新增的笔记(增量同步),转成 Markdown 格式存到本机的 notes/ 资料夹。每天醒来,前一天存的东西已经安安静静躺在电脑里了。
自动分类,这是整条管线最花心思的部分——也是我最得意的部分。
使用,分类完的笔记可以直接全文搜寻,也可以透过 Cowork Skill 用自然语言查。「帮我找那篇关于龙虾的文章」,它就会去 API 搜,把结果拉回来。不用记档名,不用记存在哪个资料夹。
三层分类引擎:让每篇笔记自动找到家
分类引擎是三层 fallback 架构,每篇笔记从上往下跑,第一层命中就不往下走。
第一层是录音卡侦测。Get笔记的录音笔记会自带「录音卡笔记」的 tag,脚本侦测到这个 tag 就把它归到会议录音资料夹。里面再按关键字分成八个专案子资料夹——SDTI 的、CircleFlow 的、投资人会议的,各归各位。
第二层是课程系列侦测,这是我最满意的设计。得到 App 的课程文章,URL 里藏着一个 courseArticleId 参数。同一门课的所有文章共用同一个 courseArticleId。我的脚本解析这个 ID,去比对一个叫 _course_registry.json 的动态登录档。
这个 registry 的巧妙之处在于:它会自动扩展。如果脚本遇到一个从没见过的 courseArticleId,它不会傻在那里不知道怎么办,而是自动建一个新资料夹、把这门课登记进 registry、然后开始归档。下次遇到同一门课的其他文章,就知道往哪送了。
我不需要每次开新课就去改程序代码。系统自己认识新课程。
第三层是关键字分类,最朴素但也最稳的兜底策略。脚本扫描笔记标题加内文前 300 字,比对一组关键字库,分到对应的主题资料夹:AI 与科技、医疗健康、投资理财、个人成长、生活杂记⋯⋯。分不到任何类别的就进「其他」,至少不会消失在虚空中。
三层的优先顺序很重要:录音卡是最确定的(有明确 tag),课程系列是次确定的(有结构化 ID),关键字是模糊匹配但覆盖面最广。每篇笔记一定有归处。
为什么不用手动标签?
建管线的过程中,我反复试着用手动建立标签。结论是:行不通。
不是技术上行不通,是人性上行不通。你存一篇文章的时候脑子里想的是「这个好有用」,不是「这个应该归到哪个标签体系的第几层」。要求使用者在收集的当下就做分类决策,也是消耗认知资源的操作。
第二个问题是标签会飘移。你一月设的标签体系,到三月就觉得不对了,但前两个月的几百篇笔记不可能回头重新标。标签系统的维护成本跟内容量成正比,而且是回溯性的——改一次规则就要重新处理所有历史资料。
自动分类的好处是:规则改了,重跑一次脚本就好。一百篇跟一万篇的成本一样。
从「整理」到「取用」
管线建好之后,改变我工作方式的不只「整理」变快,「取用」也变得更友善。我可以直接在Claude的窗口调取资料,输出我要的内容。
以前存的东西等于没存,因为不方便查找。现在我可以在 Cowork 里直接说「最近有没有存过关于循环经济的文章」,Skill 会去 API 搜寻,把符合的笔记列出来,连摘要都有。我可以说「帮我看一下万维钢那门课我上到哪了」,它就去读 _series_meta.json 的进度索引。
知识管理的目标不是「存好」,是「用得到」。管线解决的不只是整理问题,是把收集和使用之间那道鸿沟填起来。
这跟我在 paulkuo.tw 做 AI-Ready 持续优化的逻辑是一样的:不要让人去适应系统,让系统去适应人。网站优化交给自动回圈,知识整理交给自动管线。人的精力留给真正需要判断力的事。
一条管线,一种态度
回头看,这条管线技术上其实不复杂。一支 Python 脚本、一个 crontab 排程、一份 JSON registry、一个 Cowork Skill。没有机器学习,没有向量资料库,没有什么高深的 NLP。
但它解决了一个纠结我的问题。
以前每次看到知识管理的文章,都会被那套「建立第二大脑」的论述吸引,然后花一个周末搭 Notion 模板、设计 tag 体系、写使用守则——然后两周后又回到原点。不是工具不好,是那套方法本质上在跟人性对赌:它赌你每天都有力气手动整理。但我不可能每天都有足够的专注力。
管线思维不赌人性。它赌的是 API 稳定、cron 准时、程序逻辑正确。这三件事的可靠度,比任何人的自律都高。
如果你也在为知识管理焦虑,我的建议不是去找更好的 App 或更漂亮的模板。而是可以跟AI协作,放掉传统SOP,问自己一个问题:流程里,有哪些步骤其实不需要我?哪些是可以委出去?把不需要你的步骤交给管线与AI。把「阅读、思考、连结、创造」留给自己。
我想,那是知识管理该有的样子。当然,这是我个人的版本,你可以发展自己的。
管线产出范例
- AI 龙虾十日谈 — 得到 App 共同创办人快刀青衣的十场直播对谈,经知识管线同步、AI 结构化整理后的总览页面。
💬 留言讨论
加载中...