用 Claude Code 完成一篇文献综述

从检索到终稿——一个学术综述的完整 AI 辅助工作流。

面对 200 篇论文的那种无力感

导师说:"写一篇文献综述,下个月交。"

你打开 Google Scholar,输入关键词,跳出 3,700 条结果。前两页看起来都相关,你下载了 20 篇。读到第 8 篇的时候开始心虚——这 20 篇能代表领域全貌吗?那些被引 2,000 次的经典论文,你是不是一篇都没找到?

更令人崩溃的是后续流程。文献存在桌面的"论文"文件夹里,命名风格从 paper_v3.pdf这篇很重要一定要读.pdf 应有尽有。精读笔记散落在三个 Word 文档和一个 Notion 页面里。等到真正开始动笔写综述的时候,你发现连"哪篇论文说了什么"都需要重新翻找。

一周过去了,你有了一张混乱的 Excel 表格、一堆零散的笔记和一个空白的 Word 文档。

这就是大多数人写文献综述的真实状态。问题不在于你不够努力,而在于"搜一搜、读一读、写一写"这种散漫的流程本身就不可控——你不知道搜得够不够全,不知道读得够不够深,写的时候更不知道组织得够不够好。

下面是一个不同的方案。


五个阶段,一条流水线

文献综述本质上是一个信息加工的流水线:原材料(论文)经过多道工序,最终变成成品(综述终稿)。问题不在某一道工序做得不好,而在于大多数人根本没有流水线——所有工序混在一起,搜着搜着就开始读,读着读着就开始写,写到一半发现漏了文献又回去搜。

Claude Code 加上学术 MCP 工具,可以把这条流水线搭起来。五个阶段,每个阶段有明确的输入和输出,前一步的产出直接喂给下一步:

① 检索  →  ② 筛选  →  ③ 精读  →  ④ 撰写  →  ⑤ 交付
1000+ 篇    25-50 篇    结构化笔记    综述初稿    发表级终稿

下面依次看每个阶段中最值得一提的操作。


阶段一:三轮收敛检索

传统检索的最大问题是"不知道搜得够不够"。你翻了 Google Scholar 前五页就停了——凭什么是五页而不是十页?没有框架指导的检索,本质上是在碰运气。

Claude Code 连接 Semantic Scholar MCP 后,检索变成了一个可控的收敛过程。你告诉它研究主题,它会自动执行一套三轮收敛策略:

第一轮:广撒网
  使用 6 组关键词组合在 Semantic Scholar 和 OpenAlex 上检索
  收获 1,000+ 篇候选文献
 
第二轮:主题收敛
  按被引次数、发表年份、期刊影响因子排序
  追踪高被引论文的引用网络(谁引了它、它引了谁)
  缩窄到 100-200 篇
 
第三轮:质量筛选
  基于纳入/排除标准逐篇评估
  最终保留 25-50 篇核心文献

三轮下来,你手里不再是一堆"看起来相关"的论文,而是一份有据可查、可追溯的文献清单。每一篇为什么纳入、为什么排除,都有记录。

这个过程最精彩的地方在于引用网络追踪。Semantic Scholar 的 paper_referencespaper_citations 接口可以沿着引用链条一路追下去——从一篇核心综述出发,找到它引用的 50 篇论文,再找到引用它的 80 篇后续研究。那些隐藏在 Google Scholar 第 20 页、但被引 2,000 次的经典论文,通过引用网络一步就能定位到。


阶段二:从 1,000 篇到 25 篇

筛选是最容易被低估的环节。很多人把"检索"和"筛选"混在一起——搜到一篇就读一篇,读完觉得不行就丢掉。这种做法的问题是你永远不知道还有多少好论文没被搜到。

在五阶段流程里,筛选是一个独立的阶段。Claude Code 会按照学术界标准的 PRISMA 框架来执行:识别 → 去重 → 标题/摘要筛选 → 全文筛选 → 最终纳入。每一步的数量变化都记录在案,最后可以直接生成 PRISMA 流程图——如果你的综述要发表,这张图本身就是必需品。

PRISMA 框架听起来很学术,但它的核心逻辑很朴素:确保你的筛选过程是透明的、可复现的。任何人拿着你的纳入/排除标准和检索策略,都应该能得到差不多的结果。Claude Code 把这个过程自动化了,你只需要制定标准,执行和记录它来做。


阶段三:SubAgent 并行精读

25 篇核心文献,每篇平均 20 页,总共 500 页。传统做法是一篇一篇读,边读边做笔记,快的人需要一周,慢的人可能两周。

Claude Code 的做法是:把 25 篇文献分成 5 组,每组 5 篇,分配给 5 个 SubAgent 同时精读。

Claude Code (Leader Agent): 发布 5 个精读 SubAgent。
 
  [SubAgent 精读-1] 精读论文 #1-5
  [SubAgent 精读-2] 精读论文 #6-10
  [SubAgent 精读-3] 精读论文 #11-15
  [SubAgent 精读-4] 精读论文 #16-20
  [SubAgent 精读-5] 精读论文 #21-25
 
  每个 SubAgent 使用统一的提取模板:
  → 研究问题 / 核心方法 / 关键发现 / 局限性 / 对综述的贡献

5 个 SubAgent 并行跑完,25 篇论文的结构化精读笔记就全部就绪了。Leader Agent(主 Agent)不参与精读本身,它只负责分配任务和审查结果——发现哪个 SubAgent 的提取不够深入,就给出修正指令让它重做。

这里有一个认知上的转变值得强调:SubAgent 精读不是"让 AI 帮你读论文",而是"让 AI 帮你做结构化信息提取"。你依然需要审查每篇论文的关键结论,依然需要判断它在你综述中的位置。AI 做的是那些机械性的工作——找研究问题、提方法、列发现——而把需要学术判断力的部分留给你。

精读完成后,Claude Code 会把所有提取结果汇总成一张"文献地图":按主题聚类、标注时间线、标记争议点和研究空白。这张地图就是下一步综述撰写的蓝图。


阶段四:2-2-1 冗余写作法

终于到了写的环节。

传统做法是:打开编辑器,盯着空白页面,写一段删一段,反复调整框架,一周后可能还在改第三稿。

五阶段流程里的写作方法叫 2-2-1 冗余写作法。名字已经说明了一切——2 个独立版本、2 轮审查、1 个整合版本。

为什么要写两个版本? AI 在一次生成中会沿着一条路径往下写。一旦选定了切入角度,后文就会围绕这个角度展开,很难中途大幅调整。这意味着一个版本必然有它的"视角盲区"。两个版本从不同角度切入——比如一个从理论发展脉络组织,另一个从方法论演进组织——各有亮点和盲区,整合后的质量远超任何单一版本。

实操流程是这样的:

第一阶段:"2"——两个 SubAgent 并行撰写
 
  [SubAgent 写作-A] 从理论发展脉络角度撰写初稿
  [SubAgent 写作-B] 从方法论演进角度撰写初稿
 
  两个 SubAgent 读取相同的文献地图和精读笔记,
  但用不同的组织逻辑写出两份完整的综述初稿。
 
 
第二阶段:"2"——两轮审查
 
  [SubAgent 审查] 对比分析两个版本:
  → 版本 A 优势:理论脉络清晰,起源追溯更完整
  → 版本 B 优势:方法论比较出色,局限性分析更深入
  → 版本 A 盲区:近 5 年新兴方法覆盖不足
  → 版本 B 盲区:理论框架间逻辑衔接较弱
 
 
第三阶段:"1"——一个整合版本
 
  [SubAgent 整合] 整合原则:
  → 引言和理论框架取版本 A 的结构
  → 方法论比较和局限性取版本 B 的内容
  → 补充审查报告中指出的共同盲区
  → 统一术语和引用格式

整合稿保留了两个版本各自的长处,同时修补了各自的盲区。一次写作流程就得到了经过对比、审查、取长补短的综述——这在传统方法中需要你自己反复重写三四稿才可能达到的效果。

如果你对 2-2-1 方法的原理和更多应用场景感兴趣,推荐阅读 B07 2-2-1 冗余写作法


阶段五:质量交付

初稿完成后,还有最后一道关。学术写作中参考文献的准确性是硬标准——一个 DOI 错误、一处年份不符就可能导致论文被拒。

Claude Code 加载 academic-ref-check Skill 后,会对参考文献列表做端到端的验证:

  • 通过 Semantic Scholar 逐条核实 DOI、年份、期刊名
  • 按 APA 第七版或 GB/T 7714 格式统一排版
  • 标记存疑条目,生成人工审核清单

验证完参考文献,再跑一轮全文质量审核——术语是否统一、逻辑是否连贯、引用是否充分。审核不通过的段落会被标记并给出修改建议,你确认后 Claude Code 执行修订。

最终产出:一篇完整的综述终稿、一份格式化的参考文献列表、一张 PRISMA 流程图。


传统方法 vs 五阶段流程

阶段传统方法五阶段流程
检索翻 Google Scholar 前几页,2-3 天MCP 自动化三轮收敛,2 小时
筛选边搜边读,标准模糊,贯穿全程PRISMA 框架独立执行,含在检索阶段
精读逐篇阅读+手动笔记,1-2 周SubAgent 并行精读+结构化提取,2 小时
撰写反复重写三四稿,1-2 周2-2-1 冗余写作法,2 小时
交付手动检查参考文献格式,2-3 天Skill 自动验证+格式化,1.5 小时
总计2-4 周7-8 小时

这个对比不是在说传统方法"做错了",而是说其中大量时间花在了机械性工作上——翻页、下载、整理笔记、核对格式。五阶段流程把这些机械性工作交给 MCP 和 SubAgent,让你把时间花在真正需要学术判断力的地方:制定筛选标准、搭建论证框架、评估研究质量。

更重要的是,五阶段流程是可复用的。你的下一个课题、下一篇综述,可以直接套用相同的检索策略模板、精读提取模板和写作流程。每做一次,流程会更顺畅,模板会更贴合你的学科需求。


适合什么人

这套流程不需要你会编程,不需要你懂 AI 原理。你需要的是:

  • 一个 Claude Code 订阅(Pro 可完成全部步骤,Max 可并行加速)
  • 安装好 Semantic Scholar 和 OpenAlex MCP 服务器
  • 一个你想做的综述课题

如果你是第一次用 Claude Code 做学术研究,建议从环境搭建开始,一步步来。


进阶阅读

如果你对这套流程感兴趣,以下是完整的教程和相关资源:

完整教程: 论文检索 -- 五阶段流程的详细教程,包含每一步的操作演示和检查点,预计 7.5 小时完成

环境搭建: 环境搭建 -- 安装和配置 Semantic Scholar、OpenAlex、Firecrawl MCP 服务器

方法论详解: B07 2-2-1 冗余写作法 -- 冗余写作法的原理和更多应用场景


本文小结

  • 文献综述的核心挑战不在于某一步做不好,而在于缺少一条从检索到交付的完整流水线
  • 五阶段流程(检索→筛选→精读→撰写→交付)把散漫的过程变成可控的工序,每步有明确的输入和输出
  • 三轮收敛检索解决"搜得够不够全"的焦虑,引用网络追踪找到隐藏的关键文献
  • SubAgent 并行精读将数周的阅读工作压缩到数小时,但学术判断仍由你来做
  • 2-2-1 冗余写作法通过两个独立版本的对比和整合,突破 AI 单次输出的质量天花板
  • 整个流程可复用——模板和策略越用越顺,适应你的学科需求