今天刷 GitHub Trending 的时候被吓了一跳——一个叫 DeepSeek TUI 的项目,单日暴涨 6000+ Star,直接冲上 Trending 榜首。
看了一眼,确实有点东西。
终端里的编程 Agent,不是玩具#
DeepSeek TUI 是一个跑在终端里的编程 Agent,基于 DeepSeek V4 模型(deepseek-v4-pro 和 deepseek-v4-flash)。但它不是那种简单的终端聊天机器人,而是真的能干活的编程助手:
- 读写文件、执行 Shell 命令、管理 Git
- 联网搜索、浏览网页
- 调度子 Agent 协同工作
- 每次编辑完自动跑 LSP 诊断(rust-analyzer、pyright、tsc 等都支持),报错直接喂回模型上下文
最夸张的是上下文窗口 100 万 token。这意味着你可以把一整个中大型项目丢进去,它不会说着说着就忘了前面在干啥。
Auto 模式:AI 自己决定用不用脑#
这个功能挺聪明的。打开 --model auto 之后,DeepSeek TUI 会在每次对话前先做一个轻量级路由判断——
简单问题(比如"这个函数干嘛的")→ 用 Flash 模型 + 不开思考模式,省钱省时间。
复杂任务(比如"重构这个模块"或"review 这个 PR")→ 自动切到 Pro 模型 + 开启深度思考。
你不需要纠结"这次该用哪个模型",AI 自己判断。路由判断本身用的是 Flash,成本几乎可以忽略。
三种模式对应三种心态#
| 模式 | 适合场景 |
|---|---|
| Plan 🔍 | 只看不改。让 AI 先探索代码库,出一个方案,你不满意它可以接着改 |
| Agent 🤖 | 默认模式。AI 干每一步都要你批准,适合改关键代码 |
| YOLO ⚡ | 全自动批准。信任 AI 的话直接放手让它干,干完你 review |
还有一个贴心的设计——每次对话前后自动创建 Git 快照(不影响你自己的 .git),搞砸了一行命令 /restore 回滚。
安装简单到离谱#
npm install -g deepseek-tui
deepseek --model auto第一次启动会问你 API Key,之后保存在 ~/.deepseek/config.toml 里。也支持 Cargo、Homebrew、Scoop 安装,还有国内镜像加速。
除了 DeepSeek 官方 API,还支持 NVIDIA NIM、Fireworks、自建 SGLang/vLLM 端点。Linux ARM64 也能跑(树莓派、华为鸿蒙 PC 都行)。
支持 MCP,生态打通了#
DeepSeek TUI 接入了 MCP(Model Context Protocol),可以连各种外部工具服务。还支持 Skills 系统——可以安装别人打包好的指令包,直接增强 AI 的能力,不需要后端服务。
另外它还暴露了 HTTP/SSE API 和 ACP stdio 协议,可以嵌入到其他工作流里,比如在 Zed 编辑器里直接调用。
为什么火得这么快?#
我觉得几个原因:
DeepSeek V4 本身就是热门话题。 国产大模型里 DeepSeek 的技术实力和性价比有目共睹,V4 更是上了 100 万上下文。给它做一个好用的终端 Agent,关注度自然高。
时机好。 Claude Code、Cursor、Windsurf 这些编程 Agent 都很火,但要么贵要么绑 GUI。一个轻量、便宜、跑终端里的 Agent 刚好填了这个空位。
质量确实不错。 Rust 写的,TUI 界面用 ratatui,响应快;功能完整(LSP 诊断、会话保存/恢复、子 Agent、成本追踪);文档也写得清楚。不是 MVP 玩票项目。
当然,现在火不代表以后也火。编程 Agent 这个赛道卷得厉害,DeepSeek TUI 能不能持续迭代、把体验打磨好,才是关键。但至少目前的起点非常高。
参考来源:Hmbown/DeepSeek-TUI
