前置准备#
你需要的:
- macOS 或 Linux(Windows 也可以,用 PowerShell)
- 能联网
- 一个 LLM API Key(推荐先用 DeepSeek 或 OpenAI,便宜效果好)
不需要 GPU,不需要 Python 环境,不需要装 Node.js。
第一步:安装#
打开终端,一行搞定:
curl -fsSL https://feynman.is/install | bash这条命令会自动检测你的系统和架构(macOS Intel/Apple Silicon、Linux x64/ARM64),下载对应的预编译包。自带 Node.js 运行时,不会跟你系统的 Node 冲突。
Windows 用户用 PowerShell:
irm https://feynman.is/install.ps1 | iex装完验证一下:
feynman --version第二步:配置#
第一次用需要设置模型和搜索源:
feynman setup交互式引导会问你几个问题:
选模型#
方案 A:云模型(推荐新手)
选 OpenAI 或 DeepSeek,输入 API Key 就行。DeepSeek V4 的性价比很高,做研究任务完全够用。
方案 B:本地模型(隐私优先)
选 LM Studio,保持默认 http://localhost:1234/v1。你需要提前在 LM Studio 里加载一个模型,推荐 14B 参数以上的。
Ollama 用户选 “Custom provider”,填 openai-completions,指向 http://localhost:11434/v1。
配搜索源#
至少配一个 Web 搜索引擎:
- Exa — 质量最高,适合学术搜索,有免费额度
- Perplexity — 综合搜索,速度快
- Gemini — Google 的搜索 API
论文搜索走 alphaXiv,feynman setup 会帮你配好。没登录 alphaXiv 也能用基础搜索功能。
验证配置#
feynman doctor这个命令会检查模型连通性、搜索源状态、alphaXiv 登录情况,有问题会直接告诉你怎么修。
第三步:跑一次深度研究#
来个实际的例子。假设你想了解 “MoE(混合专家模型)的最新进展”:
feynman deepresearch "Mixture of Experts recent advances 2025 2026"Feynman 会这样做:
- Researcher Agent 启动,同时搜论文(alphaXiv)和网页(Exa/Perplexity)
- 找到的资料被分成多个子问题,并行调查
- Verifier Agent 逐条验证来源链接和引用准确性
- Writer Agent 把所有发现组织成结构化报告
- 输出一份带完整引用的研究简报
整个过程可能需要 2-5 分钟,取决于你的模型和搜索源。终端里会实时显示进度。
看结果:
feynman outputs浏览所有生成的研究产出,支持导出为 Markdown 或 PDF。
第四步:做一次文献综述#
深度研究偏"广",文献综述偏"深":
feynman lit "RLHF alternatives: DPO, GRPO, KTO"Feynman 会输出:
- 共识 — 哪些结论是学术界普遍认同的
- 分歧 — 哪些问题还有争议,不同论文的观点是什么
- 开放问题 — 还没人搞明白的方向
这个输出比你自己一篇篇读论文整理出来的要快得多,而且结构更清晰。当然,你需要自己判断 AI 整理的内容是否准确——建议挑几个关键引用回原文核实。
第五步:审计一篇论文#
这是 Feynman 最有意思的功能之一。拿到一篇论文的 arXiv ID:
feynman audit 2501.12345Feynman 会:
- 读论文摘要和核心声明
- 找到对应的代码仓库(如果有的话)
- 逐条对比论文声称的 vs 代码实际实现的
- 标记不一致的地方
学术圈经常有论文写得天花乱坠但代码对不上的情况,这个功能帮你自动做"事实核查"。
进阶:配置 GPU 实验复现#
如果你想让 Feynman 帮你跑实验:
Modal(推荐,按秒计费):
pip install modal
modal token new配置好之后,feynman replicate 会自动把实验部署到 Modal 的云端 GPU 上跑。
RunPod(适合长时间实验):
在 RunPod 租一个 GPU Pod,Feynman 通过 SSH 连上去跑。适合需要跑几小时的训练任务。
本地 GPU:
如果你自己有显卡,用 Docker 隔离执行:
feynman setup # 选择 Docker 作为执行环境常用命令速查#
| 命令 | 用途 |
|---|---|
feynman "问题" | 快速研究,30秒-3分钟 |
feynman deepresearch "主题" | 多Agent深度调查 |
feynman lit "主题" | 文献综述 |
feynman audit <arxiv_id> | 论文审计 |
feynman replicate "实验" | 复现实验 |
feynman compare "主题" | 多源对比 |
feynman /watch "主题" | 持续跟踪(每天自动跑) |
feynman outputs | 查看所有产出 |
feynman doctor | 检查配置状态 |
feynman search status | 检查搜索源 |
几个实用技巧#
1. 用英文提问效果更好
Feynman 搜索的论文和文档主要是英文的,用英文提问搜到的资料更全面。你可以在 prompt 里加 “answer in Chinese” 让它用中文输出。
2. 加时间限定
feynman "MoE scaling laws 2025 2026" 比 feynman "MoE scaling laws" 效果好,因为会优先搜近期的论文。
3. 会话可以断点续传
研究跑到一半可以中断,下次 feynman 启动时会提示恢复之前的会话。长课题不怕断。
4. 省钱模式
简单问题用 feynman "问题" 就够了,别什么都上 deepresearch。flash 模型 + 快速搜索,30 秒出结果,成本几乎为零。
