跳过正文
  1. 实战教程/

Feynman 实战:用 AI Agent 半小时搞定一篇文献综述

RekCore
作者
RekCore
用通俗易懂的语言,为你解读 AI 世界正在发生的一切

前置准备
#

你需要的:

  • macOS 或 Linux(Windows 也可以,用 PowerShell)
  • 能联网
  • 一个 LLM API Key(推荐先用 DeepSeek 或 OpenAI,便宜效果好)

不需要 GPU,不需要 Python 环境,不需要装 Node.js。

第一步:安装
#

打开终端,一行搞定:

curl -fsSL https://feynman.is/install | bash

这条命令会自动检测你的系统和架构(macOS Intel/Apple Silicon、Linux x64/ARM64),下载对应的预编译包。自带 Node.js 运行时,不会跟你系统的 Node 冲突。

Windows 用户用 PowerShell:

irm https://feynman.is/install.ps1 | iex

装完验证一下:

feynman --version

第二步:配置
#

第一次用需要设置模型和搜索源:

feynman setup

交互式引导会问你几个问题:

选模型
#

方案 A:云模型(推荐新手)

选 OpenAI 或 DeepSeek,输入 API Key 就行。DeepSeek V4 的性价比很高,做研究任务完全够用。

方案 B:本地模型(隐私优先)

选 LM Studio,保持默认 http://localhost:1234/v1。你需要提前在 LM Studio 里加载一个模型,推荐 14B 参数以上的。

Ollama 用户选 “Custom provider”,填 openai-completions,指向 http://localhost:11434/v1

配搜索源
#

至少配一个 Web 搜索引擎:

  • Exa — 质量最高,适合学术搜索,有免费额度
  • Perplexity — 综合搜索,速度快
  • Gemini — Google 的搜索 API

论文搜索走 alphaXiv,feynman setup 会帮你配好。没登录 alphaXiv 也能用基础搜索功能。

验证配置
#

feynman doctor

这个命令会检查模型连通性、搜索源状态、alphaXiv 登录情况,有问题会直接告诉你怎么修。

第三步:跑一次深度研究
#

来个实际的例子。假设你想了解 “MoE(混合专家模型)的最新进展”

feynman deepresearch "Mixture of Experts recent advances 2025 2026"

Feynman 会这样做:

  1. Researcher Agent 启动,同时搜论文(alphaXiv)和网页(Exa/Perplexity)
  2. 找到的资料被分成多个子问题,并行调查
  3. Verifier Agent 逐条验证来源链接和引用准确性
  4. Writer Agent 把所有发现组织成结构化报告
  5. 输出一份带完整引用的研究简报

整个过程可能需要 2-5 分钟,取决于你的模型和搜索源。终端里会实时显示进度。

看结果:

feynman outputs

浏览所有生成的研究产出,支持导出为 Markdown 或 PDF。

第四步:做一次文献综述
#

深度研究偏"广",文献综述偏"深":

feynman lit "RLHF alternatives: DPO, GRPO, KTO"

Feynman 会输出:

  • 共识 — 哪些结论是学术界普遍认同的
  • 分歧 — 哪些问题还有争议,不同论文的观点是什么
  • 开放问题 — 还没人搞明白的方向

这个输出比你自己一篇篇读论文整理出来的要快得多,而且结构更清晰。当然,你需要自己判断 AI 整理的内容是否准确——建议挑几个关键引用回原文核实。

第五步:审计一篇论文
#

这是 Feynman 最有意思的功能之一。拿到一篇论文的 arXiv ID:

feynman audit 2501.12345

Feynman 会:

  1. 读论文摘要和核心声明
  2. 找到对应的代码仓库(如果有的话)
  3. 逐条对比论文声称的 vs 代码实际实现的
  4. 标记不一致的地方

学术圈经常有论文写得天花乱坠但代码对不上的情况,这个功能帮你自动做"事实核查"。

进阶:配置 GPU 实验复现
#

如果你想让 Feynman 帮你跑实验:

Modal(推荐,按秒计费):

pip install modal
modal token new

配置好之后,feynman replicate 会自动把实验部署到 Modal 的云端 GPU 上跑。

RunPod(适合长时间实验):

在 RunPod 租一个 GPU Pod,Feynman 通过 SSH 连上去跑。适合需要跑几小时的训练任务。

本地 GPU:

如果你自己有显卡,用 Docker 隔离执行:

feynman setup  # 选择 Docker 作为执行环境

常用命令速查
#

命令用途
feynman "问题"快速研究,30秒-3分钟
feynman deepresearch "主题"多Agent深度调查
feynman lit "主题"文献综述
feynman audit <arxiv_id>论文审计
feynman replicate "实验"复现实验
feynman compare "主题"多源对比
feynman /watch "主题"持续跟踪(每天自动跑)
feynman outputs查看所有产出
feynman doctor检查配置状态
feynman search status检查搜索源

几个实用技巧
#

1. 用英文提问效果更好

Feynman 搜索的论文和文档主要是英文的,用英文提问搜到的资料更全面。你可以在 prompt 里加 “answer in Chinese” 让它用中文输出。

2. 加时间限定

feynman "MoE scaling laws 2025 2026"feynman "MoE scaling laws" 效果好,因为会优先搜近期的论文。

3. 会话可以断点续传

研究跑到一半可以中断,下次 feynman 启动时会提示恢复之前的会话。长课题不怕断。

4. 省钱模式

简单问题用 feynman "问题" 就够了,别什么都上 deepresearch。flash 模型 + 快速搜索,30 秒出结果,成本几乎为零。


参考来源:getcompanion-ai/feynman · feynman.is/docs