AI 编码工具与资源
近期使用的 AI 编程助手、按量计费大模型 API、开源编码工具及 Coding Plan 订阅套餐,按类别整理如下:
AI 编码工具
基于 AI 的编程助手与代码生成工具,支持自然语言交互和智能补全。
商业产品
商业化的 AI 编码工具,提供多层级套餐选择。
国际产品
Claude Code - Anthropic 官方终端 AI 编码助手
- 定价:
- Free: US$0
- Pro: US$20/月
- Team Standard: US$20/席位/月
- Team Premium: US$100/席位/月
- 核心模型:
- Claude Opus 4.6: SWE-bench Verified 79.2%、Adaptive Thinking、200K/1M 上下文
- Claude Sonnet 4.6: SWE-bench Verified 79.6%、性价比最优、200K/1M 上下文
- Claude Sonnet 4.5: SWE-bench Verified 77.2%、速度与智能平衡
- 优点:
- 代码质量高,“品味”出色(Constitutional AI 训练)
- 长期项目理解能力强,适合复杂重构
- 终端原生,天然契合 Shell/Git 工具链
- 适用场景:
- 大型代码库架构设计与重构
- 复杂 Bug 修复与代码审查
- 终端优先的开发者工作流
Cursor - AI 优先的代码编辑器
- 官网: https://cursor.com
- 定价:
- Hobby: 免费
- Pro: US$20/月
- Pro+: US$60/月
- Ultra: US$200/月
- Teams: US$40/用户/月
- 质量与成功率: SWE-bench ~70%+,用户报告效率提升 126%
- 优点:
- Composer 模式支持多文件自主编码
- 多模型切换(Claude/GPT/Gemini)
- 项目级上下文理解强
- 适用场景:
- 前端原型快速开发
- AI 驱动的敏捷团队
- 需要多模型对比的场景
Kiro - AWS 规范驱动开发 IDE/CLI
- 官网: https://kiro.dev
- 定价:
- Free: US$0/月(50 积分)
- Pro: US$20/月(1000 积分)
- Pro+: US$40/月(2000 积分)
- Power: US$200/月(10000 积分)
- 超额: US$0.04/积分
- 新用户: 赠送 500 积分试用
- 优点:
- Spec-Driven 开发范式,先设计后编码
- AWS 生态深度集成
- 支持 IDE 和 CLI 双模式
- 适用场景:
- AWS 云原生项目开发
- 需要规范化流程的企业团队
- 前后端全栈开发
国产产品
CodeBuddy - 腾讯云代码助手(推荐)
- 官网: https://copilot.tencent.com / https://www.codebuddy.ai
- 底层模型: 腾讯混元 + DeepSeek 双引擎
- 形态: IDE(完全免费) + VS Code/JetBrains 插件 + CLI
- 定价:
- 个人体验版: 每月 500 Credits(免费)
- 个人专业版: ¥78/月(2000 Credits)
- 旗舰版/专享版: 企业按许可证计费
- 企业私有化: ¥15万/年起
- 质量与成功率:
- 代码采纳率 91%
- 设计稿还原度 98%
- 中文语义理解准确率优秀
- 优点:
- 国内首批支持 MCP 协议的代码助手
- Craft 智能体:一句话生成多文件项目
- 等保 2.0 三级认证,支持私有化部署
- 内置 BaaS(Supabase 集成),零配置上线
- 混元 256K + DeepSeek 128K 双上下文
- 适用场景:
- 中文项目开发(语义理解优势)
- 金融/政务等合规场景
- 企业私有化部署需求
- 前后端全栈开发
Trae - 字节跳动 AI 原生 IDE
- 国内版: trae.com.cn (基于豆包模型,完全免费)
- 国际版: trae.ai (基于 Claude/GPT 等,$10/月)
- 定价:
- 国内版: 完全免费
- 国际版: $10/月(首月 $3),年付 $7.5/月
- 质量与成功率: SWE-bench 75.2%,前端代码生成准确率 91%
- 优点:
- Builder 模式:自然语言生成完整项目
- SOLO 模式:全流程自主开发
- 多模态支持:设计稿/语音/草图转代码
- 全中文界面,本地化体验优秀
- 适用场景:
- 中文开发者首选
- 前端原型快速验证
- 非技术用户快速搭建网站
- 创意验证与黑客马拉松
Qoder - 阿里云 AI 编程平台
- 官网: https://qoder.aliyun.com / https://qoder.com
- 定价:
- 新用户: 2周免费试用(1000 Credits)
- Pro: US$20/月(2000 Credits)
- Pro+: US$60/月(6000 Credits)
- 质量与成功率: 同价位完成普通任务是 Cursor 的 1.48倍,复杂任务准确率高 13.22%
- 优点:
- Quest Mode:需求 → 设计文档 → 代码执行全流程
- Repo Wiki:代码库隐性知识管理
- 项目记忆机制:保留上下文与执行偏好
- 隐私模式:代码不用于训练
- 适用场景:
- 阿里云生态项目
- 企业级代码库管理
- 团队协作与知识沉淀
按量计费大模型 API
适合需要自定义模型或大量调用的开发者,按实际 Token 消耗计费,灵活度高。
DeepSeek - 性价比之王(推荐)
- 官网: https://platform.deepseek.com
- 主力模型: DeepSeek-V3.2、DeepSeek-R1(推理模型)
- 定价:
- 输入: ¥2/百万tokens(缓存命中 ¥0.2)
- 输出: ¥3/百万tokens
- 上下文: 128K tokens
- 优点:
- 价格极低,同性能下成本仅为 Claude 的 1/10
- DeepSeek-R1 推理能力出色,适合复杂逻辑
- API 稳定,响应速度快
- 适用场景:
- 大量调用的生产环境
- 预算敏感的项目
- 复杂推理任务(DeepSeek-R1)
阿里云百炼 - 模型最全的开放平台
- 官网: https://bailian.console.aliyun.com
- 主力模型:
- 千问 Max: 复杂任务,能力最强
- 千问 Plus: 效果、速度、成本均衡
- 千问 Flash: 速度快、成本低
- 千问 Coder: 代码专用
- 定价:
- 千问 Flash: 输入 ¥0.15/百万tokens,输出 ¥1.5/百万tokens
- 千问 Plus: 输入 ¥0.8/百万tokens,输出 ¥2/百万tokens
- 千问 Max: 输入 ¥2.5/百万tokens,输出 ¥10/百万tokens
- 上下文: 最高 1M tokens
- 优点:
- 模型种类最全(通用/代码/多模态/语音/视频)
- 集成第三方模型(DeepSeek、Kimi、GLM 等)
- 新用户免费额度:各 100 万 tokens(90 天有效)
- 适用场景:
- 需要多种模型的项目
- 阿里云生态开发者
- 企业级应用(稳定性高)
火山引擎 - 豆包系列,响应快
- 官网: https://www.volcengine.com
- 主力模型:
- 豆包 Pro: 复杂推理、深度内容创作
- 豆包 Lite: 轻量级问答、聊天
- 豆包 Code: 代码专用
- 定价:
- 豆包 Lite: 输入 ¥0.8/百万tokens,输出 ¥2/百万tokens
- 豆包 Pro: 输入 ¥4/百万tokens,输出 ¥16/百万tokens
- 豆包 Code: 输入 ¥4/百万tokens,输出 ¥12/百万tokens
- 上下文: 最高 256K tokens
- 新客专享: ¥19/约1亿tokens
- 优点:
- 原生多模态支持(文本/图像/语音/视频)
- 响应速度快,适合实时场景
- 与 Trae IDE 深度集成
- 适用场景:
- 前端快速开发
- 实时对话系统
- 多模态应用
硅基流动 SiliconFlow - 开源模型聚合平台
- 官网: https://cloud.siliconflow.cn
- 主力模型: DeepSeek、Qwen、GLM、Step 等开源模型
- 定价:
- 免费模型: Qwen2.5-7B、GLM-4-9B、DeepSeek-OCR 等
- DeepSeek-V3.2: 输入 ¥2/百万tokens,输出 ¥3/百万tokens
- Qwen2.5-72B: 输入/输出 ¥4.13/百万tokens
- 新用户: 赠送 2000万 tokens 免费额度
- 优点:
- 聚合多家开源模型,一站式调用
- 大量模型免费使用
- 支持 FLUX、Stable Diffusion 等图像模型
- 适用场景:
- 开源模型爱好者
- 需要对比多模型的场景
- 图像生成需求
智谱 AI BigModel - GLM 系列,国产最强编程
- 官网: https://open.bigmodel.cn
- 主力模型:
- GLM-5: 744B 参数(40B 激活)、SWE-bench 77.8%、202K 上下文、开源 SOTA、Slime 异步 RL 框架(2026年2月发布)
- GLM-4.7: SWE-bench Verified 73.8%、前端/Agentic Coding 强化、工具调用 τ²-Bench 84.7
- GLM-4.6V: 视觉专用、像素级复刻、首个视觉模型支持工具调用
- GLM-4.5-air: 轻量级编码、106B 参数(12B 激活)、成本优先
- 定价(按量计费):
- GLM-4.5-air: 输入/输出 ¥0.1/百万tokens
- GLM-4.7: 输入/输出 ¥5/百万tokens
- 上下文: 最高 202K tokens
- 优点:
- GLM-5 编程能力对齐 Claude Opus 4.6
- 深度思考能力强,适合架构设计
- 支持 Claude Code、Cline 等编程工具
- 适用场景:
- AI 编程(Claude Code 集成)
- 复杂架构设计
- 长上下文任务
按量计费平台选型建议
| 需求 | 推荐平台 | 理由 |
|---|---|---|
| 极致性价比 | DeepSeek | 同性能成本最低,缓存命中仅需 ¥0.2/百万 |
| 模型种类最全 | 阿里云百炼 | 通用/代码/多模态/语音/视频全覆盖 |
| 前端快速开发 | 火山引擎 | 豆包响应快,新客 ¥19/1亿tokens |
| 开源模型免费使用 | 硅基流动 | 大量模型免费,新用户送 2000万 tokens |
| AI 编程(Claude Code) | 智谱 AI | GLM-5 对齐 Claude Opus,Coding Plan 便宜 |
| 大量调用生产环境 | DeepSeek | 价格透明稳定,API 质量高 |
开源工具
注意:开源工具本身不提供模型,质量取决于你选择的底层模型。 推荐搭配 Claude、GPT-4、GLM-5、Qwen 等顶级模型使用。
OpenCode - 开源 AI 编码代理框架
- 官网: https://opencode.ai
- 定价: 免费开源,需自带 API(支持 75+ LLM 提供商)
- 质量与成功率: 取决于所选模型(推荐 Claude/GPT-4 等顶级模型)
- 优点:
- 支持终端/IDE/桌面多形态
- 高度可定制化
- 活跃的开源社区
- 适用场景:
- 有自有 API 密钥的开发者
- 需要深度定制 AI 工作流
- 开源项目爱好者
Oh-My-OpenCode - OpenCode 增强配置框架
- 官网: https://github.com/code-yeongyu/oh-my-opencode
- 定价: 免费开源(MIT)
- 优点:
- 多模型智能调度
- 预配置的最佳实践
- 开箱即用
- 适用场景:
- 多模型混合使用场景
- 追求性价比的开发者
- OpenCode 进阶用户
Superpowers - Agent Skills 框架
- 官网: https://github.com/obra/superpowers
- 定价: 免费开源(MIT)
- 支持平台: Claude Code、Cursor、OpenCode 等
- 优点:
- 内置 TDD、调试、代码审查等技能
- 可扩展的技能系统
- 跨平台支持
- 适用场景:
- 追求代码质量的团队
- TDD 开发流程
- 自动化代码审查
Skills.sh - Vercel Labs 开放技能生态
- 官网: https://skills.sh/
- 定价: 免费开放
- 支持: 17+ AI 编码代理
- 优点:
- Vercel Labs 官方维护
- 丰富的技能库
- 社区驱动
- 适用场景:
- Vercel 生态开发者
- Next.js/React 项目
- 前端全栈开发
OpenSpec CN - 中文 AI 规范开发工具
- 官网: https://openspec.cn/
- 定价: 免费开放
- 优点:
- 中文原生支持
- 规范驱动开发
- 适合国内开发者
- 适用场景:
- 中文项目规范管理
- 企业级项目文档
- 需求到代码的规范流程
SpecKit - GitHub 规范驱动开发工具包
- 官网: https://github.com/github/spec-kit
- 定价: 免费开源
- 优点:
- GitHub 官方出品
- 结构化开发流程
- 与 GitHub 生态深度集成
- 适用场景:
- GitHub 托管的项目
- 需要规范化流程的团队
- 开源项目管理
Coding Plan 活动
国内云厂商的 Coding Plan 优惠活动页面,提供 Hours 时长补贴与模型调用优惠。
什么是 Coding Plan? Coding Plan 是国内云厂商推出的 AI 编程套餐,以固定订阅价格提供大模型 API 调用额度,适合需要频繁使用 AI 编程工具的开发者。
阿里云 Coding Plan - 千问系列模型订阅
- 官网: https://www.aliyun.com/benefit/scene/codingplan
- 定价:
- 基础版: ¥40/月(4并发 / 18000 次/月)
- 高级版: ¥200/月(4并发 / 90000 次/月)
- 首购低至 ¥7.9/月,续费 5 折起
- 包含模型:
- Qwen3.5-Plus: 深度思考、万亿参数、系统级能力
- Qwen3-Coder-Plus: MoE 架构、SWE-bench 69.6%、1M 上下文
- Qwen3-Max: 复杂任务,能力最强
- MiniMax-M2.5: SWE-bench 80.2%、Agent 原生(第三方旗舰)
- GLM-4.7: 前端强化(第三方通用)
- 优点:
- 模型丰富,覆盖通用/编程专用
- 与 Qoder IDE 无缝集成
- 新客优惠力度大
- 适用场景:
- 使用 Qwen 系列模型的项目
- 阿里云生态开发者
- 企业级项目(稳定性要求高)
- 全栈开发(前后端/后端为主)
智谱 AI Coding Plan - GLM 系列模型订阅
- 官网: https://docs.bigmodel.cn/cn/coding-plan/overview
- 定价(5 小时+周限额双重刷新):
- Lite: ¥20/月(1并发 / ~80次/5h、~400次/周)
- Pro: ¥100/月(3并发 / ~400次/5h、~2000次/周)
- Max: ¥300/月(8并发 / ~1600次/5h、~8000次/周)
- GLM-5 调用按 2-3 倍抵扣
- 包含模型:
- GLM-5: 744B 参数(40B 激活)、SWE-bench 77.8%、202K 上下文、开源 SOTA
- GLM-4.7: SWE-bench Verified 73.8%、前端/Agentic Coding 强化、工具调用 τ²-Bench 84.7
- GLM-4.5-air: 轻量级编码、106B 参数(12B 激活)、成本优先
- 优点:
- GLM 系列中文能力强
- 推理能力出色
- 支持长上下文
- 适用场景:
- 中文 NLP 任务
- 复杂架构设计(深度思考能力强)
- 企业级项目(需要私有化部署)
- 全栈开发(架构能力突出)
火山引擎 Coding Plan - 豆包系列模型订阅
- 官网: https://www.volcengine.com/activity/codingplan
- 定价:
- Lite: ¥40/月(4并发 / ~1200次/5h,首月¥9.9)
- Pro: ¥200/月(8并发 / ~6000次/5h,每周约45000次,每月约90000次,首月¥49.9)
- 企业版: 按合同配置(5-20并发 / 控制台配置)
- 包含模型:
- Doubao-Seed-2.0-Code: 256K 长上下文、SWE-bench Verified 76.5%、支持 200+ 编程语言
- Doubao-Seed-Code: 视觉理解、UI 设计稿转代码
- deepseek-chat、glm-4.7、kimi-k2.5、kimi-k2-thinking: 第三方模型支持
- 优点:
- 与 Trae IDE 深度集成
- 响应速度快
- 代码生成质量稳定
- 适用场景:
- 使用 Trae IDE 的开发者
- 前端项目(生成速度快)
- 中小型项目(性价比高)
- 原型开发(快速迭代)
KuaeCloud Coding Plan - 多模型聚合订阅
- 官网: https://coding-plan.kuaecloud.net/
- 优点:
- 多模型聚合
- 灵活切换
- 适用场景:
- 需要多模型对比的开发者
- 实验性项目
- 预算有限的个人开发者
Coding Plan 选型建议
| 需求 | 推荐 | 理由 |
|---|---|---|
| 企业级项目(高稳定性) | 阿里云 / 智谱 | 模型成熟,企业支持完善 |
| 复杂架构设计 | 智谱 GLM | 深度思考能力强 |
| 前端快速开发 | 火山引擎 | 豆包系列响应快,代码质量稳定 |
| 性价比优先 | 火山引擎 / KuaeCloud | 价格友好,适合个人/小团队 |
| 后端/全栈开发 | 阿里云 / 智谱 | 编程模型专业,推理能力强 |
配置示例
Oh-My-OpenCode 采用 质量优先 的多模型调度策略,核心思路如下:
| 任务类型 | 推荐模型 | 说明 |
|---|---|---|
| 最关键任务 | MiniMax-M2.5 | 国内最强 80.2%,Agent 原生,额度有限省着用 |
| 高频核心任务 | GLM-4.7 | 额度充足,前端强化,工具调用 SOTA |
| 视觉任务 | GLM-4.6V | 视觉专用,设计稿转代码 |
| 简单/兜底任务 | ark-code-latest | 自动选最合适模型 |
Note
完整的 前端 和 后端 场景配置见下一节。
场景化配置详解
针对不同开发场景,Oh-My-OpenCode 提供了专门优化的配置方案。以下是前端和后端开发场景的完整配置说明。
前端开发场景配置
专门为前端开发优化的配置,采用 质量优先 策略:MiniMax 攻坚 + GLM 主力 + ark 自动选。
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"_comment": "前端开发场景配置 - 质量优先:MiniMax攻坚 + GLM主力 + ark自动选",
"_concurrency": {
"bailian-coding-plan": "Lite版,官方4并发 → 设置3",
"volcengine-coding-plan": "Lite版,官方4并发 → 设置3",
"zhipuai-coding-plan": "Pro版,官方3并发 → 设置2"
},
"_models": ["MiniMax-M2.5", "glm-5", "glm-4.7", "glm-4.6v", "ark-code-latest"],
"_strategy": {
"最关键任务": "MiniMax-M2.5 (Lite) - 国内最强80.2%,Agent原生,额度有限省着用",
"简单/兜底任务": "ark-code-latest (Lite) - 自动选最合适模型",
"视觉任务": "glm-4.6v (Pro) - 视觉专用,设计稿转代码",
"高频核心任务": "glm-4.7 (Pro) - 额度充足,前端强化,工具调用SOTA"
},
"agents": {
"OpenCode-Builder": {
"description": "构建器: 项目构建、依赖管理、打包优化",
"model": "zhipuai-coding-plan/glm-4.7"
},
"atlas": {
"description": "前端架构师: 组件架构、状态管理、技术选型 - 架构决策用最强模型",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"build": {
"description": "构建器: 项目构建、依赖管理、打包优化",
"model": "zhipuai-coding-plan/glm-4.7"
},
"explore": {
"description": "前端调研: 探索框架新特性、组件库、最佳实践",
"model": "volcengine-coding-plan/ark-code-latest"
},
"librarian": {
"description": "代码资产: 查找React/Vue组件模板、Hooks、工具函数",
"model": "volcengine-coding-plan/ark-code-latest"
},
"metis": {
"description": "核心编码: React/Vue组件、TypeScript、状态管理 - 前端强化模型,高频主力",
"model": "zhipuai-coding-plan/glm-4.7"
},
"momus": {
"description": "前端评审: 性能优化、类型安全、组件设计、可访问性 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"multimodal-looker": {
"description": "多模态专家: 设计稿转代码、UI截图分析、像素级复刻 - 视觉专用",
"model": "zhipuai-coding-plan/glm-4.6v"
},
"oracle": {
"description": "疑难问题: 构建配置、兼容性、性能瓶颈、复杂Bug - 最强模型解决最难问题",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"plan": {
"description": "任务规划: 分解复杂任务、生成并行任务图、依赖分析 - Agent原生,最强规划能力",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"prometheus": {
"description": "核心攻坚: 复杂交互、动画系统、大型表单、实时协作 - 关键攻坚用最强模型",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"sisyphus": {
"description": "主编排器: 协调各Agent、任务分发、进度跟踪 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"sisyphus-junior": {
"description": "轻量编排: 简单任务委托、快速原型",
"model": "volcengine-coding-plan/ark-code-latest"
}
},
"background_task": {
"defaultConcurrency": 2,
"modelConcurrency": {
"volcengine-coding-plan/ark-code-latest": 1,
"zhipuai-coding-plan/glm-4.6v": 1,
"zhipuai-coding-plan/glm-4.7": 1,
"zhipuai-coding-plan/glm-5": 1
},
"providerConcurrency": {
"bailian-coding-plan": 3,
"volcengine-coding-plan": 3,
"zhipuai-coding-plan": 2
}
},
"categories": {
"artistry": {
"description": "UI样式专家: Tailwind、响应式、动画、设计稿像素级还原 - 前端强化",
"model": "zhipuai-coding-plan/glm-4.7",
"reasoningEffort": "high"
},
"deep": {
"description": "深度思考: 前端架构、性能优化、重构方案 - 最强推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"quick": {
"description": "快速编码: 简单组件、工具函数、CSS样式、原型验证 - 自动选模型",
"model": "volcengine-coding-plan/ark-code-latest"
},
"ultrabrain": {
"description": "全局超脑: 跨组件架构、技术债务评估、迁移方案 - 国内最强80.2%",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"unspecified-high": {
"description": "高优兜底: 未分类高复杂度前端需求 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"unspecified-low": {
"description": "低优兜底: 未分类常规前端需求 - 自动选模型",
"model": "volcengine-coding-plan/ark-code-latest"
},
"visual-engineering": {
"description": "视觉工程: 设计稿转代码、数据可视化、图表、Canvas/WebGL - 视觉专用",
"model": "zhipuai-coding-plan/glm-4.6v"
},
"writing": {
"description": "文档编写: 组件文档、Storybook、README、API文档",
"model": "zhipuai-coding-plan/glm-4.7"
}
},
"ralph_loop": {
"default_max_iterations": 50,
"enabled": true
}
}后端开发场景配置
专门为后端开发优化的配置,采用 质量优先 策略:MiniMax 攻坚 + GLM 主力 + ark 自动选。
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json",
"_comment": "后端开发场景配置 - 质量优先:MiniMax攻坚 + GLM主力 + ark自动选",
"_concurrency": {
"bailian-coding-plan": "Lite版,官方4并发 → 设置3",
"zhipuai-coding-plan": "Pro版,官方3并发 → 设置2",
"volcengine-coding-plan": "Lite版,官方4并发 → 设置3"
},
"_models": ["MiniMax-M2.5", "glm-5", "glm-4.7", "glm-4.6v", "ark-code-latest"],
"_strategy": {
"最关键任务": "MiniMax-M2.5 (Lite) - 国内最强80.2%,Agent原生,额度有限省着用",
"高频核心任务": "glm-4.7 (Pro) - 额度充足,前端强化,工具调用SOTA",
"视觉任务": "glm-4.6v (Pro) - 视觉专用,设计稿转代码",
"简单/兜底任务": "ark-code-latest (Lite) - 自动选最合适模型"
},
"agents": {
"OpenCode-Builder": {
"description": "构建器: 项目构建、依赖管理、打包优化",
"model": "zhipuai-coding-plan/glm-4.7"
},
"atlas": {
"description": "后端架构师: 微服务架构、系统设计、技术选型、数据模型 - 架构决策用最强模型",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"build": {
"description": "构建器: 项目构建、依赖管理、打包优化",
"model": "zhipuai-coding-plan/glm-4.7"
},
"explore": {
"description": "后端调研: 探索框架新特性、中间件、数据库优化、最佳实践",
"model": "volcengine-coding-plan/ark-code-latest"
},
"librarian": {
"description": "代码资产: 查找Service、Mapper、DTO模板、API模式",
"model": "volcengine-coding-plan/ark-code-latest"
},
"metis": {
"description": "核心编码: 业务逻辑、API实现、数据处理、MyBatis/JPA - 高频主力",
"model": "zhipuai-coding-plan/glm-4.7"
},
"momus": {
"description": "后端评审: 安全审计、性能分析、SQL优化、并发安全、架构合理性 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"multimodal-looker": {
"description": "多模态辅助: 架构图分析、ER图理解、日志可视化分析 - 视觉专用",
"model": "zhipuai-coding-plan/glm-4.6v"
},
"oracle": {
"description": "疑难问题: 分布式问题、性能瓶颈、死锁、内存泄漏、兼容性 - 最强模型解决最难问题",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"plan": {
"description": "任务规划: 分解复杂任务、生成并行任务图、依赖分析 - Agent原生,最强规划能力",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"prometheus": {
"description": "核心攻坚: 分布式事务、高并发设计、数据迁移、系统重构 - 关键攻坚用最强模型",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"sisyphus": {
"description": "主编排器: 协调各Agent、任务分发、进度跟踪 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"sisyphus-junior": {
"description": "轻量编排: 简单任务委托、快速原型",
"model": "volcengine-coding-plan/ark-code-latest"
}
},
"background_task": {
"defaultConcurrency": 2,
"modelConcurrency": {
"bailian-coding-plan/MiniMax-M2.5": 1,
"zhipuai-coding-plan/glm-4.7": 1,
"zhipuai-coding-plan/glm-5": 1,
"zhipuai-coding-plan/glm-4.6v": 1,
"volcengine-coding-plan/ark-code-latest": 1
},
"providerConcurrency": {
"bailian-coding-plan": 3,
"zhipuai-coding-plan": 2,
"volcengine-coding-plan": 3
}
},
"categories": {
"artistry": {
"description": "API设计: RESTful规范、接口文档、响应格式",
"model": "zhipuai-coding-plan/glm-4.7",
"reasoningEffort": "high"
},
"deep": {
"description": "深度思考: 架构设计、性能优化、重构方案、安全加固 - 最强推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"quick": {
"description": "快速编码: 简单CRUD、工具类、配置文件、DTO/Entity - 自动选模型",
"model": "volcengine-coding-plan/ark-code-latest"
},
"ultrabrain": {
"description": "全局超脑: 跨模块架构、技术债务评估、迁移方案、最终决策 - 国内最强80.2%",
"model": "bailian-coding-plan/MiniMax-M2.5",
"reasoningEffort": "xhigh"
},
"unspecified-high": {
"description": "高优兜底: 未分类高复杂度后端需求 - 深度推理",
"model": "zhipuai-coding-plan/glm-5",
"reasoningEffort": "xhigh"
},
"unspecified-low": {
"description": "低优兜底: 未分类常规后端需求 - 自动选模型",
"model": "volcengine-coding-plan/ark-code-latest"
},
"visual-engineering": {
"description": "可视化辅助: 架构图分析、数据流图、ER图理解 - 视觉专用",
"model": "zhipuai-coding-plan/glm-4.6v"
},
"writing": {
"description": "文档编写: API文档、架构文档、部署文档、技术方案",
"model": "zhipuai-coding-plan/glm-4.7"
}
},
"ralph_loop": {
"default_max_iterations": 50,
"enabled": true
}
}配置策略对比
| 配置项 | 前端场景配置 | 后端场景配置 |
|---|---|---|
| 核心攻坚模型 | MiniMax-M2.5 (国内最强 80.2%) | MiniMax-M2.5 (国内最强 80.2%) |
| 高频主力模型 | GLM-4.7 (前端强化) | GLM-4.7 (业务逻辑) |
| 视觉专用模型 | GLM-4.6v (设计稿转代码) | GLM-4.6v (架构图分析) |
| 快速编码模型 | ark-code-latest (自动选模型) | ark-code-latest (自动选模型) |
| 深度推理模型 | GLM-5 (评审/编排) | GLM-5 (评审/编排) |
| 架构师 Agent | MiniMax-M2.5: 组件架构、状态管理、技术选型 | MiniMax-M2.5: 微服务、系统设计、数据模型 |
| 核心编码 Agent | GLM-4.7: React/Vue 组件、TypeScript、状态管理 | GLM-4.7: 业务逻辑、API 实现、数据处理、MyBatis/JPA |
| 代码评审 Agent | GLM-5: 性能优化、类型安全、组件设计、可访问性 | GLM-5: 安全审计、SQL 优化、并发安全、架构合理性 |
| 视觉工程 | GLM-4.6v: 设计稿转代码、UI 截图分析、像素级复刻 | GLM-4.6v: 架构图分析、ER 图理解、日志可视化分析 |
| 任务规划 Agent | MiniMax-M2.5: 分解任务、并行任务图、依赖分析 | MiniMax-M2.5: 分解任务、并行任务图、依赖分析 |
使用建议
Tip
什么时候用前端配置?
- 开发 React/Vue 组件、实现 UI 交互和动画
- 处理设计稿转代码、像素级 UI 还原
- 前端架构设计、组件库开发
- 前端性能优化、响应式布局
什么时候用后端配置?
- 开发 API 接口和业务逻辑
- 设计数据库模型、微服务架构
- 优化 SQL 和数据处理、并发安全
- 后端系统分析、分布式事务
质量优先策略要点
- MiniMax-M2.5 用于最关键任务(架构决策、疑难问题、核心攻坚)
- GLM-4.7 用于高频核心任务(日常编码、API 实现)
- ark-code-latest 用于简单/兜底任务(自动选最合适模型)
注意:MiniMax-M2.5 额度有限,请省着用!
Last updated on