- 博客
- 打造你的 Claude Code 仪表盘:StatusLine 从零到完整版
- 永远不再错过 Claude 的消息:macOS 通知系统完整方案
- 我的学术 MCP 矩阵:6 个工具组合的学术搜索策略
- 455 行代码背后的设计思考:终端 UI 设计方法论
- CLAUDE.md 进阶:从 10 行到 607 行的配置艺术
- 让 Claude 当领导:SubAgent 编排方法论
- 2-2-1 冗余写作法:让 AI 输出质量翻倍
- 22 个场景看 Claude Code 的学术研究表现
- 如何为 Claude Code 创建高质量 Skill:完整案例
- 复盘驱动的 AI 使用改进
- 用 Claude Code 完成一篇文献综述
- 从 0 到发表:Claude Code 统计分析全流程
- 用 AI 管理生活:我的 Logseq + Claude Code 生活系统
面对 200 篇论文的那种无力感
导师说:"写一篇文献综述,下个月交。"
你打开 Google Scholar,输入关键词,跳出 3,700 条结果。前两页看起来都相关,你下载了 20 篇。读到第 8 篇的时候开始心虚——这 20 篇能代表领域全貌吗?那些被引 2,000 次的经典论文,你是不是一篇都没找到?
更令人崩溃的是后续流程。文献存在桌面的"论文"文件夹里,命名风格从 paper_v3.pdf 到 这篇很重要一定要读.pdf 应有尽有。精读笔记散落在三个 Word 文档和一个 Notion 页面里。等到真正开始动笔写综述的时候,你发现连"哪篇论文说了什么"都需要重新翻找。
一周过去了,你有了一张混乱的 Excel 表格、一堆零散的笔记和一个空白的 Word 文档。
这就是大多数人写文献综述的真实状态。问题不在于你不够努力,而在于"搜一搜、读一读、写一写"这种散漫的流程本身就不可控——你不知道搜得够不够全,不知道读得够不够深,写的时候更不知道组织得够不够好。
下面是一个不同的方案。
五个阶段,一条流水线
文献综述本质上是一个信息加工的流水线:原材料(论文)经过多道工序,最终变成成品(综述终稿)。问题不在某一道工序做得不好,而在于大多数人根本没有流水线——所有工序混在一起,搜着搜着就开始读,读着读着就开始写,写到一半发现漏了文献又回去搜。
Claude Code 加上学术 MCP 工具,可以把这条流水线搭起来。五个阶段,每个阶段有明确的输入和输出,前一步的产出直接喂给下一步:
① 检索 → ② 筛选 → ③ 精读 → ④ 撰写 → ⑤ 交付
1000+ 篇 25-50 篇 结构化笔记 综述初稿 发表级终稿下面依次看每个阶段中最值得一提的操作。
阶段一:三轮收敛检索
传统检索的最大问题是"不知道搜得够不够"。你翻了 Google Scholar 前五页就停了——凭什么是五页而不是十页?没有框架指导的检索,本质上是在碰运气。
Claude Code 连接 Semantic Scholar MCP 后,检索变成了一个可控的收敛过程。你告诉它研究主题,它会自动执行一套三轮收敛策略:
第一轮:广撒网
使用 6 组关键词组合在 Semantic Scholar 和 OpenAlex 上检索
收获 1,000+ 篇候选文献
第二轮:主题收敛
按被引次数、发表年份、期刊影响因子排序
追踪高被引论文的引用网络(谁引了它、它引了谁)
缩窄到 100-200 篇
第三轮:质量筛选
基于纳入/排除标准逐篇评估
最终保留 25-50 篇核心文献三轮下来,你手里不再是一堆"看起来相关"的论文,而是一份有据可查、可追溯的文献清单。每一篇为什么纳入、为什么排除,都有记录。
这个过程最精彩的地方在于引用网络追踪。Semantic Scholar 的 paper_references 和 paper_citations 接口可以沿着引用链条一路追下去——从一篇核心综述出发,找到它引用的 50 篇论文,再找到引用它的 80 篇后续研究。那些隐藏在 Google Scholar 第 20 页、但被引 2,000 次的经典论文,通过引用网络一步就能定位到。
阶段二:从 1,000 篇到 25 篇
筛选是最容易被低估的环节。很多人把"检索"和"筛选"混在一起——搜到一篇就读一篇,读完觉得不行就丢掉。这种做法的问题是你永远不知道还有多少好论文没被搜到。
在五阶段流程里,筛选是一个独立的阶段。Claude Code 会按照学术界标准的 PRISMA 框架来执行:识别 → 去重 → 标题/摘要筛选 → 全文筛选 → 最终纳入。每一步的数量变化都记录在案,最后可以直接生成 PRISMA 流程图——如果你的综述要发表,这张图本身就是必需品。
PRISMA 框架听起来很学术,但它的核心逻辑很朴素:确保你的筛选过程是透明的、可复现的。任何人拿着你的纳入/排除标准和检索策略,都应该能得到差不多的结果。Claude Code 把这个过程自动化了,你只需要制定标准,执行和记录它来做。
阶段三:SubAgent 并行精读
25 篇核心文献,每篇平均 20 页,总共 500 页。传统做法是一篇一篇读,边读边做笔记,快的人需要一周,慢的人可能两周。
Claude Code 的做法是:把 25 篇文献分成 5 组,每组 5 篇,分配给 5 个 SubAgent 同时精读。
Claude Code (Leader Agent): 发布 5 个精读 SubAgent。
[SubAgent 精读-1] 精读论文 #1-5
[SubAgent 精读-2] 精读论文 #6-10
[SubAgent 精读-3] 精读论文 #11-15
[SubAgent 精读-4] 精读论文 #16-20
[SubAgent 精读-5] 精读论文 #21-25
每个 SubAgent 使用统一的提取模板:
→ 研究问题 / 核心方法 / 关键发现 / 局限性 / 对综述的贡献5 个 SubAgent 并行跑完,25 篇论文的结构化精读笔记就全部就绪了。Leader Agent(主 Agent)不参与精读本身,它只负责分配任务和审查结果——发现哪个 SubAgent 的提取不够深入,就给出修正指令让它重做。
这里有一个认知上的转变值得强调:SubAgent 精读不是"让 AI 帮你读论文",而是"让 AI 帮你做结构化信息提取"。你依然需要审查每篇论文的关键结论,依然需要判断它在你综述中的位置。AI 做的是那些机械性的工作——找研究问题、提方法、列发现——而把需要学术判断力的部分留给你。
精读完成后,Claude Code 会把所有提取结果汇总成一张"文献地图":按主题聚类、标注时间线、标记争议点和研究空白。这张地图就是下一步综述撰写的蓝图。
阶段四:2-2-1 冗余写作法
终于到了写的环节。
传统做法是:打开编辑器,盯着空白页面,写一段删一段,反复调整框架,一周后可能还在改第三稿。
五阶段流程里的写作方法叫 2-2-1 冗余写作法。名字已经说明了一切——2 个独立版本、2 轮审查、1 个整合版本。
为什么要写两个版本? AI 在一次生成中会沿着一条路径往下写。一旦选定了切入角度,后文就会围绕这个角度展开,很难中途大幅调整。这意味着一个版本必然有它的"视角盲区"。两个版本从不同角度切入——比如一个从理论发展脉络组织,另一个从方法论演进组织——各有亮点和盲区,整合后的质量远超任何单一版本。
实操流程是这样的:
第一阶段:"2"——两个 SubAgent 并行撰写
[SubAgent 写作-A] 从理论发展脉络角度撰写初稿
[SubAgent 写作-B] 从方法论演进角度撰写初稿
两个 SubAgent 读取相同的文献地图和精读笔记,
但用不同的组织逻辑写出两份完整的综述初稿。
第二阶段:"2"——两轮审查
[SubAgent 审查] 对比分析两个版本:
→ 版本 A 优势:理论脉络清晰,起源追溯更完整
→ 版本 B 优势:方法论比较出色,局限性分析更深入
→ 版本 A 盲区:近 5 年新兴方法覆盖不足
→ 版本 B 盲区:理论框架间逻辑衔接较弱
第三阶段:"1"——一个整合版本
[SubAgent 整合] 整合原则:
→ 引言和理论框架取版本 A 的结构
→ 方法论比较和局限性取版本 B 的内容
→ 补充审查报告中指出的共同盲区
→ 统一术语和引用格式整合稿保留了两个版本各自的长处,同时修补了各自的盲区。一次写作流程就得到了经过对比、审查、取长补短的综述——这在传统方法中需要你自己反复重写三四稿才可能达到的效果。
如果你对 2-2-1 方法的原理和更多应用场景感兴趣,推荐阅读 B07 2-2-1 冗余写作法。
阶段五:质量交付
初稿完成后,还有最后一道关。学术写作中参考文献的准确性是硬标准——一个 DOI 错误、一处年份不符就可能导致论文被拒。
Claude Code 加载 academic-ref-check Skill 后,会对参考文献列表做端到端的验证:
- 通过 Semantic Scholar 逐条核实 DOI、年份、期刊名
- 按 APA 第七版或 GB/T 7714 格式统一排版
- 标记存疑条目,生成人工审核清单
验证完参考文献,再跑一轮全文质量审核——术语是否统一、逻辑是否连贯、引用是否充分。审核不通过的段落会被标记并给出修改建议,你确认后 Claude Code 执行修订。
最终产出:一篇完整的综述终稿、一份格式化的参考文献列表、一张 PRISMA 流程图。
传统方法 vs 五阶段流程
| 阶段 | 传统方法 | 五阶段流程 |
|---|---|---|
| 检索 | 翻 Google Scholar 前几页,2-3 天 | MCP 自动化三轮收敛,2 小时 |
| 筛选 | 边搜边读,标准模糊,贯穿全程 | PRISMA 框架独立执行,含在检索阶段 |
| 精读 | 逐篇阅读+手动笔记,1-2 周 | SubAgent 并行精读+结构化提取,2 小时 |
| 撰写 | 反复重写三四稿,1-2 周 | 2-2-1 冗余写作法,2 小时 |
| 交付 | 手动检查参考文献格式,2-3 天 | Skill 自动验证+格式化,1.5 小时 |
| 总计 | 2-4 周 | 7-8 小时 |
这个对比不是在说传统方法"做错了",而是说其中大量时间花在了机械性工作上——翻页、下载、整理笔记、核对格式。五阶段流程把这些机械性工作交给 MCP 和 SubAgent,让你把时间花在真正需要学术判断力的地方:制定筛选标准、搭建论证框架、评估研究质量。
更重要的是,五阶段流程是可复用的。你的下一个课题、下一篇综述,可以直接套用相同的检索策略模板、精读提取模板和写作流程。每做一次,流程会更顺畅,模板会更贴合你的学科需求。
适合什么人
这套流程不需要你会编程,不需要你懂 AI 原理。你需要的是:
- 一个 Claude Code 订阅(Pro 可完成全部步骤,Max 可并行加速)
- 安装好 Semantic Scholar 和 OpenAlex MCP 服务器
- 一个你想做的综述课题
如果你是第一次用 Claude Code 做学术研究,建议从环境搭建开始,一步步来。
进阶阅读
如果你对这套流程感兴趣,以下是完整的教程和相关资源:
完整教程: 论文检索 -- 五阶段流程的详细教程,包含每一步的操作演示和检查点,预计 7.5 小时完成
环境搭建: 环境搭建 -- 安装和配置 Semantic Scholar、OpenAlex、Firecrawl MCP 服务器
方法论详解: B07 2-2-1 冗余写作法 -- 冗余写作法的原理和更多应用场景
本文小结
- 文献综述的核心挑战不在于某一步做不好,而在于缺少一条从检索到交付的完整流水线
- 五阶段流程(检索→筛选→精读→撰写→交付)把散漫的过程变成可控的工序,每步有明确的输入和输出
- 三轮收敛检索解决"搜得够不够全"的焦虑,引用网络追踪找到隐藏的关键文献
- SubAgent 并行精读将数周的阅读工作压缩到数小时,但学术判断仍由你来做
- 2-2-1 冗余写作法通过两个独立版本的对比和整合,突破 AI 单次输出的质量天花板
- 整个流程可复用——模板和策略越用越顺,适应你的学科需求