Skip to Content
书签AI 编码工具与资源

AI 编码工具与资源

近期使用的 AI 编程助手、按量计费大模型 API、开源编码工具及 Coding Plan 订阅套餐,按类别整理如下:


AI 编码工具

基于 AI 的编程助手与代码生成工具,支持自然语言交互和智能补全。

商业产品

商业化的 AI 编码工具,提供多层级套餐选择。

国际产品

Claude Code - Anthropic 官方终端 AI 编码助手

官网: Claude 聊天  / API 文档 

  • 定价:
    • Free: US$0
    • Pro: US$20/月
    • Team Standard: US$20/席位/月
    • Team Premium: US$100/席位/月
  • 核心模型:
    • Claude Opus 4.6: SWE-bench Verified 79.2%、Adaptive Thinking、200K/1M 上下文
    • Claude Sonnet 4.6: SWE-bench Verified 79.6%、性价比最优、200K/1M 上下文
    • Claude Sonnet 4.5: SWE-bench Verified 77.2%、速度与智能平衡
  • 优点:
    • 代码质量高,“品味”出色(Constitutional AI 训练)
    • 长期项目理解能力强,适合复杂重构
    • 终端原生,天然契合 Shell/Git 工具链
  • 适用场景:
    • 大型代码库架构设计与重构
    • 复杂 Bug 修复与代码审查
    • 终端优先的开发者工作流

Cursor - AI 优先的代码编辑器

  • 官网: https://cursor.com 
  • 定价:
    • Hobby: 免费
    • Pro: US$20/月
    • Pro+: US$60/月
    • Ultra: US$200/月
    • Teams: US$40/用户/月
  • 质量与成功率: SWE-bench ~70%+,用户报告效率提升 126%
  • 优点:
    • Composer 模式支持多文件自主编码
    • 多模型切换(Claude/GPT/Gemini)
    • 项目级上下文理解强
  • 适用场景:
    • 前端原型快速开发
    • AI 驱动的敏捷团队
    • 需要多模型对比的场景

Kiro - AWS 规范驱动开发 IDE/CLI

  • 官网: https://kiro.dev 
  • 定价:
    • Free: US$0/月(50 积分)
    • Pro: US$20/月(1000 积分)
    • Pro+: US$40/月(2000 积分)
    • Power: US$200/月(10000 积分)
    • 超额: US$0.04/积分
  • 新用户: 赠送 500 积分试用
  • 优点:
    • Spec-Driven 开发范式,先设计后编码
    • AWS 生态深度集成
    • 支持 IDE 和 CLI 双模式
  • 适用场景:
    • AWS 云原生项目开发
    • 需要规范化流程的企业团队
    • 前后端全栈开发

国产产品

CodeBuddy - 腾讯云代码助手(推荐)

  • 官网: https://copilot.tencent.com  / https://www.codebuddy.ai 
  • 底层模型: 腾讯混元 + DeepSeek 双引擎
  • 形态: IDE(完全免费) + VS Code/JetBrains 插件 + CLI
  • 定价:
    • 个人体验版: 每月 500 Credits(免费)
    • 个人专业版: ¥78/月(2000 Credits)
    • 旗舰版/专享版: 企业按许可证计费
    • 企业私有化: ¥15万/年起
  • 质量与成功率:
    • 代码采纳率 91%
    • 设计稿还原度 98%
    • 中文语义理解准确率优秀
  • 优点:
    • 国内首批支持 MCP 协议的代码助手
    • Craft 智能体:一句话生成多文件项目
    • 等保 2.0 三级认证,支持私有化部署
    • 内置 BaaS(Supabase 集成),零配置上线
    • 混元 256K + DeepSeek 128K 双上下文
  • 适用场景:
    • 中文项目开发(语义理解优势)
    • 金融/政务等合规场景
    • 企业私有化部署需求
    • 前后端全栈开发

Trae - 字节跳动 AI 原生 IDE

  • 国内版: trae.com.cn (基于豆包模型,完全免费)
  • 国际版: trae.ai (基于 Claude/GPT 等,$10/月)
  • 定价:
    • 国内版: 完全免费
    • 国际版: $10/月(首月 $3),年付 $7.5/月
  • 质量与成功率: SWE-bench 75.2%,前端代码生成准确率 91%
  • 优点:
    • Builder 模式:自然语言生成完整项目
    • SOLO 模式:全流程自主开发
    • 多模态支持:设计稿/语音/草图转代码
    • 全中文界面,本地化体验优秀
  • 适用场景:
    • 中文开发者首选
    • 前端原型快速验证
    • 非技术用户快速搭建网站
    • 创意验证与黑客马拉松

Qoder - 阿里云 AI 编程平台

  • 官网: https://qoder.aliyun.com  / https://qoder.com 
  • 定价:
    • 新用户: 2周免费试用(1000 Credits)
    • Pro: US$20/月(2000 Credits)
    • Pro+: US$60/月(6000 Credits)
  • 质量与成功率: 同价位完成普通任务是 Cursor 的 1.48倍,复杂任务准确率高 13.22%
  • 优点:
    • Quest Mode:需求 → 设计文档 → 代码执行全流程
    • Repo Wiki:代码库隐性知识管理
    • 项目记忆机制:保留上下文与执行偏好
    • 隐私模式:代码不用于训练
  • 适用场景:
    • 阿里云生态项目
    • 企业级代码库管理
    • 团队协作与知识沉淀

按量计费大模型 API

适合需要自定义模型或大量调用的开发者,按实际 Token 消耗计费,灵活度高。

DeepSeek - 性价比之王(推荐)

  • 官网: https://platform.deepseek.com 
  • 主力模型: DeepSeek-V3.2、DeepSeek-R1(推理模型)
  • 定价:
    • 输入: ¥2/百万tokens(缓存命中 ¥0.2
    • 输出: ¥3/百万tokens
  • 上下文: 128K tokens
  • 优点:
    • 价格极低,同性能下成本仅为 Claude 的 1/10
    • DeepSeek-R1 推理能力出色,适合复杂逻辑
    • API 稳定,响应速度快
  • 适用场景:
    • 大量调用的生产环境
    • 预算敏感的项目
    • 复杂推理任务(DeepSeek-R1)

阿里云百炼 - 模型最全的开放平台

  • 官网: https://bailian.console.aliyun.com 
  • 主力模型:
    • 千问 Max: 复杂任务,能力最强
    • 千问 Plus: 效果、速度、成本均衡
    • 千问 Flash: 速度快、成本低
    • 千问 Coder: 代码专用
  • 定价:
    • 千问 Flash: 输入 ¥0.15/百万tokens,输出 ¥1.5/百万tokens
    • 千问 Plus: 输入 ¥0.8/百万tokens,输出 ¥2/百万tokens
    • 千问 Max: 输入 ¥2.5/百万tokens,输出 ¥10/百万tokens
  • 上下文: 最高 1M tokens
  • 优点:
    • 模型种类最全(通用/代码/多模态/语音/视频)
    • 集成第三方模型(DeepSeek、Kimi、GLM 等)
    • 新用户免费额度:各 100 万 tokens(90 天有效)
  • 适用场景:
    • 需要多种模型的项目
    • 阿里云生态开发者
    • 企业级应用(稳定性高)

火山引擎 - 豆包系列,响应快

  • 官网: https://www.volcengine.com 
  • 主力模型:
    • 豆包 Pro: 复杂推理、深度内容创作
    • 豆包 Lite: 轻量级问答、聊天
    • 豆包 Code: 代码专用
  • 定价:
    • 豆包 Lite: 输入 ¥0.8/百万tokens,输出 ¥2/百万tokens
    • 豆包 Pro: 输入 ¥4/百万tokens,输出 ¥16/百万tokens
    • 豆包 Code: 输入 ¥4/百万tokens,输出 ¥12/百万tokens
  • 上下文: 最高 256K tokens
  • 新客专享: ¥19/约1亿tokens
  • 优点:
    • 原生多模态支持(文本/图像/语音/视频)
    • 响应速度快,适合实时场景
    • 与 Trae IDE 深度集成
  • 适用场景:
    • 前端快速开发
    • 实时对话系统
    • 多模态应用

硅基流动 SiliconFlow - 开源模型聚合平台

  • 官网: https://cloud.siliconflow.cn 
  • 主力模型: DeepSeek、Qwen、GLM、Step 等开源模型
  • 定价:
    • 免费模型: Qwen2.5-7B、GLM-4-9B、DeepSeek-OCR 等
    • DeepSeek-V3.2: 输入 ¥2/百万tokens,输出 ¥3/百万tokens
    • Qwen2.5-72B: 输入/输出 ¥4.13/百万tokens
  • 新用户: 赠送 2000万 tokens 免费额度
  • 优点:
    • 聚合多家开源模型,一站式调用
    • 大量模型免费使用
    • 支持 FLUX、Stable Diffusion 等图像模型
  • 适用场景:
    • 开源模型爱好者
    • 需要对比多模型的场景
    • 图像生成需求

智谱 AI BigModel - GLM 系列,国产最强编程

  • 官网: https://open.bigmodel.cn 
  • 主力模型:
    • GLM-5: 744B 参数(40B 激活)、SWE-bench 77.8%、202K 上下文、开源 SOTA、Slime 异步 RL 框架(2026年2月发布)
    • GLM-4.7: SWE-bench Verified 73.8%、前端/Agentic Coding 强化、工具调用 τ²-Bench 84.7
    • GLM-4.6V: 视觉专用、像素级复刻、首个视觉模型支持工具调用
    • GLM-4.5-air: 轻量级编码、106B 参数(12B 激活)、成本优先
  • 定价(按量计费):
    • GLM-4.5-air: 输入/输出 ¥0.1/百万tokens
    • GLM-4.7: 输入/输出 ¥5/百万tokens
  • 上下文: 最高 202K tokens
  • 优点:
    • GLM-5 编程能力对齐 Claude Opus 4.6
    • 深度思考能力强,适合架构设计
    • 支持 Claude Code、Cline 等编程工具
  • 适用场景:
    • AI 编程(Claude Code 集成)
    • 复杂架构设计
    • 长上下文任务

按量计费平台选型建议

需求推荐平台理由
极致性价比DeepSeek同性能成本最低,缓存命中仅需 ¥0.2/百万
模型种类最全阿里云百炼通用/代码/多模态/语音/视频全覆盖
前端快速开发火山引擎豆包响应快,新客 ¥19/1亿tokens
开源模型免费使用硅基流动大量模型免费,新用户送 2000万 tokens
AI 编程(Claude Code)智谱 AIGLM-5 对齐 Claude Opus,Coding Plan 便宜
大量调用生产环境DeepSeek价格透明稳定,API 质量高

开源工具

注意:开源工具本身不提供模型,质量取决于你选择的底层模型。 推荐搭配 Claude、GPT-4、GLM-5、Qwen 等顶级模型使用。

OpenCode - 开源 AI 编码代理框架

  • 官网: https://opencode.ai 
  • 定价: 免费开源,需自带 API(支持 75+ LLM 提供商)
  • 质量与成功率: 取决于所选模型(推荐 Claude/GPT-4 等顶级模型)
  • 优点:
    • 支持终端/IDE/桌面多形态
    • 高度可定制化
    • 活跃的开源社区
  • 适用场景:
    • 有自有 API 密钥的开发者
    • 需要深度定制 AI 工作流
    • 开源项目爱好者

Oh-My-OpenCode - OpenCode 增强配置框架

  • 官网: https://github.com/code-yeongyu/oh-my-opencode 
  • 定价: 免费开源(MIT)
  • 优点:
    • 多模型智能调度
    • 预配置的最佳实践
    • 开箱即用
  • 适用场景:
    • 多模型混合使用场景
    • 追求性价比的开发者
    • OpenCode 进阶用户

Superpowers - Agent Skills 框架

  • 官网: https://github.com/obra/superpowers 
  • 定价: 免费开源(MIT)
  • 支持平台: Claude Code、Cursor、OpenCode 等
  • 优点:
    • 内置 TDD、调试、代码审查等技能
    • 可扩展的技能系统
    • 跨平台支持
  • 适用场景:
    • 追求代码质量的团队
    • TDD 开发流程
    • 自动化代码审查

Skills.sh - Vercel Labs 开放技能生态

  • 官网: https://skills.sh/ 
  • 定价: 免费开放
  • 支持: 17+ AI 编码代理
  • 优点:
    • Vercel Labs 官方维护
    • 丰富的技能库
    • 社区驱动
  • 适用场景:
    • Vercel 生态开发者
    • Next.js/React 项目
    • 前端全栈开发

OpenSpec CN - 中文 AI 规范开发工具

  • 官网: https://openspec.cn/ 
  • 定价: 免费开放
  • 优点:
    • 中文原生支持
    • 规范驱动开发
    • 适合国内开发者
  • 适用场景:
    • 中文项目规范管理
    • 企业级项目文档
    • 需求到代码的规范流程

SpecKit - GitHub 规范驱动开发工具包

  • 官网: https://github.com/github/spec-kit 
  • 定价: 免费开源
  • 优点:
    • GitHub 官方出品
    • 结构化开发流程
    • 与 GitHub 生态深度集成
  • 适用场景:
    • GitHub 托管的项目
    • 需要规范化流程的团队
    • 开源项目管理

Coding Plan 活动

国内云厂商的 Coding Plan 优惠活动页面,提供 Hours 时长补贴与模型调用优惠。

什么是 Coding Plan? Coding Plan 是国内云厂商推出的 AI 编程套餐,以固定订阅价格提供大模型 API 调用额度,适合需要频繁使用 AI 编程工具的开发者。

阿里云 Coding Plan - 千问系列模型订阅

  • 官网: https://www.aliyun.com/benefit/scene/codingplan 
  • 定价:
    • 基础版: ¥40/月(4并发 / 18000 次/月)
    • 高级版: ¥200/月(4并发 / 90000 次/月)
    • 首购低至 ¥7.9/月,续费 5 折起
  • 包含模型:
    • Qwen3.5-Plus: 深度思考、万亿参数、系统级能力
    • Qwen3-Coder-Plus: MoE 架构、SWE-bench 69.6%、1M 上下文
    • Qwen3-Max: 复杂任务,能力最强
    • MiniMax-M2.5: SWE-bench 80.2%、Agent 原生(第三方旗舰)
    • GLM-4.7: 前端强化(第三方通用)
  • 优点:
    • 模型丰富,覆盖通用/编程专用
    • 与 Qoder IDE 无缝集成
    • 新客优惠力度大
  • 适用场景:
    • 使用 Qwen 系列模型的项目
    • 阿里云生态开发者
    • 企业级项目(稳定性要求高)
    • 全栈开发(前后端/后端为主)

智谱 AI Coding Plan - GLM 系列模型订阅

  • 官网: https://docs.bigmodel.cn/cn/coding-plan/overview 
  • 定价(5 小时+周限额双重刷新):
    • Lite: ¥20/月(1并发 / ~80次/5h、~400次/周)
    • Pro: ¥100/月(3并发 / ~400次/5h、~2000次/周)
    • Max: ¥300/月(8并发 / ~1600次/5h、~8000次/周)
    • GLM-5 调用按 2-3 倍抵扣
  • 包含模型:
    • GLM-5: 744B 参数(40B 激活)、SWE-bench 77.8%、202K 上下文、开源 SOTA
    • GLM-4.7: SWE-bench Verified 73.8%、前端/Agentic Coding 强化、工具调用 τ²-Bench 84.7
    • GLM-4.5-air: 轻量级编码、106B 参数(12B 激活)、成本优先
  • 优点:
    • GLM 系列中文能力强
    • 推理能力出色
    • 支持长上下文
  • 适用场景:
    • 中文 NLP 任务
    • 复杂架构设计(深度思考能力强)
    • 企业级项目(需要私有化部署)
    • 全栈开发(架构能力突出)

火山引擎 Coding Plan - 豆包系列模型订阅

  • 官网: https://www.volcengine.com/activity/codingplan 
  • 定价:
    • Lite: ¥40/月(4并发 / ~1200次/5h,首月¥9.9)
    • Pro: ¥200/月(8并发 / ~6000次/5h,每周约45000次,每月约90000次,首月¥49.9)
    • 企业版: 按合同配置(5-20并发 / 控制台配置)
  • 包含模型:
    • Doubao-Seed-2.0-Code: 256K 长上下文、SWE-bench Verified 76.5%、支持 200+ 编程语言
    • Doubao-Seed-Code: 视觉理解、UI 设计稿转代码
    • deepseek-chat、glm-4.7、kimi-k2.5、kimi-k2-thinking: 第三方模型支持
  • 优点:
    • 与 Trae IDE 深度集成
    • 响应速度快
    • 代码生成质量稳定
  • 适用场景:
    • 使用 Trae IDE 的开发者
    • 前端项目(生成速度快)
    • 中小型项目(性价比高)
    • 原型开发(快速迭代)

KuaeCloud Coding Plan - 多模型聚合订阅

Coding Plan 选型建议

需求推荐理由
企业级项目(高稳定性)阿里云 / 智谱模型成熟,企业支持完善
复杂架构设计智谱 GLM深度思考能力强
前端快速开发火山引擎豆包系列响应快,代码质量稳定
性价比优先火山引擎 / KuaeCloud价格友好,适合个人/小团队
后端/全栈开发阿里云 / 智谱编程模型专业,推理能力强

配置示例

Oh-My-OpenCode 采用 质量优先 的多模型调度策略,核心思路如下:

任务类型推荐模型说明
最关键任务MiniMax-M2.5国内最强 80.2%,Agent 原生,额度有限省着用
高频核心任务GLM-4.7额度充足,前端强化,工具调用 SOTA
视觉任务GLM-4.6V视觉专用,设计稿转代码
简单/兜底任务ark-code-latest自动选最合适模型
Note

完整的 前端后端 场景配置见下一节。


场景化配置详解

针对不同开发场景,Oh-My-OpenCode 提供了专门优化的配置方案。以下是前端和后端开发场景的完整配置说明。

前端开发场景配置

专门为前端开发优化的配置,采用 质量优先 策略:MiniMax 攻坚 + GLM 主力 + ark 自动选。

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "前端开发场景配置 - 质量优先:MiniMax攻坚 + GLM主力 + ark自动选", "_concurrency": { "bailian-coding-plan": "Lite版,官方4并发 → 设置3", "volcengine-coding-plan": "Lite版,官方4并发 → 设置3", "zhipuai-coding-plan": "Pro版,官方3并发 → 设置2" }, "_models": ["MiniMax-M2.5", "glm-5", "glm-4.7", "glm-4.6v", "ark-code-latest"], "_strategy": { "最关键任务": "MiniMax-M2.5 (Lite) - 国内最强80.2%,Agent原生,额度有限省着用", "简单/兜底任务": "ark-code-latest (Lite) - 自动选最合适模型", "视觉任务": "glm-4.6v (Pro) - 视觉专用,设计稿转代码", "高频核心任务": "glm-4.7 (Pro) - 额度充足,前端强化,工具调用SOTA" }, "agents": { "OpenCode-Builder": { "description": "构建器: 项目构建、依赖管理、打包优化", "model": "zhipuai-coding-plan/glm-4.7" }, "atlas": { "description": "前端架构师: 组件架构、状态管理、技术选型 - 架构决策用最强模型", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "build": { "description": "构建器: 项目构建、依赖管理、打包优化", "model": "zhipuai-coding-plan/glm-4.7" }, "explore": { "description": "前端调研: 探索框架新特性、组件库、最佳实践", "model": "volcengine-coding-plan/ark-code-latest" }, "librarian": { "description": "代码资产: 查找React/Vue组件模板、Hooks、工具函数", "model": "volcengine-coding-plan/ark-code-latest" }, "metis": { "description": "核心编码: React/Vue组件、TypeScript、状态管理 - 前端强化模型,高频主力", "model": "zhipuai-coding-plan/glm-4.7" }, "momus": { "description": "前端评审: 性能优化、类型安全、组件设计、可访问性 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "multimodal-looker": { "description": "多模态专家: 设计稿转代码、UI截图分析、像素级复刻 - 视觉专用", "model": "zhipuai-coding-plan/glm-4.6v" }, "oracle": { "description": "疑难问题: 构建配置、兼容性、性能瓶颈、复杂Bug - 最强模型解决最难问题", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "plan": { "description": "任务规划: 分解复杂任务、生成并行任务图、依赖分析 - Agent原生,最强规划能力", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "prometheus": { "description": "核心攻坚: 复杂交互、动画系统、大型表单、实时协作 - 关键攻坚用最强模型", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "sisyphus": { "description": "主编排器: 协调各Agent、任务分发、进度跟踪 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "sisyphus-junior": { "description": "轻量编排: 简单任务委托、快速原型", "model": "volcengine-coding-plan/ark-code-latest" } }, "background_task": { "defaultConcurrency": 2, "modelConcurrency": { "volcengine-coding-plan/ark-code-latest": 1, "zhipuai-coding-plan/glm-4.6v": 1, "zhipuai-coding-plan/glm-4.7": 1, "zhipuai-coding-plan/glm-5": 1 }, "providerConcurrency": { "bailian-coding-plan": 3, "volcengine-coding-plan": 3, "zhipuai-coding-plan": 2 } }, "categories": { "artistry": { "description": "UI样式专家: Tailwind、响应式、动画、设计稿像素级还原 - 前端强化", "model": "zhipuai-coding-plan/glm-4.7", "reasoningEffort": "high" }, "deep": { "description": "深度思考: 前端架构、性能优化、重构方案 - 最强推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "quick": { "description": "快速编码: 简单组件、工具函数、CSS样式、原型验证 - 自动选模型", "model": "volcengine-coding-plan/ark-code-latest" }, "ultrabrain": { "description": "全局超脑: 跨组件架构、技术债务评估、迁移方案 - 国内最强80.2%", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "unspecified-high": { "description": "高优兜底: 未分类高复杂度前端需求 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "unspecified-low": { "description": "低优兜底: 未分类常规前端需求 - 自动选模型", "model": "volcengine-coding-plan/ark-code-latest" }, "visual-engineering": { "description": "视觉工程: 设计稿转代码、数据可视化、图表、Canvas/WebGL - 视觉专用", "model": "zhipuai-coding-plan/glm-4.6v" }, "writing": { "description": "文档编写: 组件文档、Storybook、README、API文档", "model": "zhipuai-coding-plan/glm-4.7" } }, "ralph_loop": { "default_max_iterations": 50, "enabled": true } }

后端开发场景配置

专门为后端开发优化的配置,采用 质量优先 策略:MiniMax 攻坚 + GLM 主力 + ark 自动选。

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "后端开发场景配置 - 质量优先:MiniMax攻坚 + GLM主力 + ark自动选", "_concurrency": { "bailian-coding-plan": "Lite版,官方4并发 → 设置3", "zhipuai-coding-plan": "Pro版,官方3并发 → 设置2", "volcengine-coding-plan": "Lite版,官方4并发 → 设置3" }, "_models": ["MiniMax-M2.5", "glm-5", "glm-4.7", "glm-4.6v", "ark-code-latest"], "_strategy": { "最关键任务": "MiniMax-M2.5 (Lite) - 国内最强80.2%,Agent原生,额度有限省着用", "高频核心任务": "glm-4.7 (Pro) - 额度充足,前端强化,工具调用SOTA", "视觉任务": "glm-4.6v (Pro) - 视觉专用,设计稿转代码", "简单/兜底任务": "ark-code-latest (Lite) - 自动选最合适模型" }, "agents": { "OpenCode-Builder": { "description": "构建器: 项目构建、依赖管理、打包优化", "model": "zhipuai-coding-plan/glm-4.7" }, "atlas": { "description": "后端架构师: 微服务架构、系统设计、技术选型、数据模型 - 架构决策用最强模型", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "build": { "description": "构建器: 项目构建、依赖管理、打包优化", "model": "zhipuai-coding-plan/glm-4.7" }, "explore": { "description": "后端调研: 探索框架新特性、中间件、数据库优化、最佳实践", "model": "volcengine-coding-plan/ark-code-latest" }, "librarian": { "description": "代码资产: 查找Service、Mapper、DTO模板、API模式", "model": "volcengine-coding-plan/ark-code-latest" }, "metis": { "description": "核心编码: 业务逻辑、API实现、数据处理、MyBatis/JPA - 高频主力", "model": "zhipuai-coding-plan/glm-4.7" }, "momus": { "description": "后端评审: 安全审计、性能分析、SQL优化、并发安全、架构合理性 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "multimodal-looker": { "description": "多模态辅助: 架构图分析、ER图理解、日志可视化分析 - 视觉专用", "model": "zhipuai-coding-plan/glm-4.6v" }, "oracle": { "description": "疑难问题: 分布式问题、性能瓶颈、死锁、内存泄漏、兼容性 - 最强模型解决最难问题", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "plan": { "description": "任务规划: 分解复杂任务、生成并行任务图、依赖分析 - Agent原生,最强规划能力", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "prometheus": { "description": "核心攻坚: 分布式事务、高并发设计、数据迁移、系统重构 - 关键攻坚用最强模型", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "sisyphus": { "description": "主编排器: 协调各Agent、任务分发、进度跟踪 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "sisyphus-junior": { "description": "轻量编排: 简单任务委托、快速原型", "model": "volcengine-coding-plan/ark-code-latest" } }, "background_task": { "defaultConcurrency": 2, "modelConcurrency": { "bailian-coding-plan/MiniMax-M2.5": 1, "zhipuai-coding-plan/glm-4.7": 1, "zhipuai-coding-plan/glm-5": 1, "zhipuai-coding-plan/glm-4.6v": 1, "volcengine-coding-plan/ark-code-latest": 1 }, "providerConcurrency": { "bailian-coding-plan": 3, "zhipuai-coding-plan": 2, "volcengine-coding-plan": 3 } }, "categories": { "artistry": { "description": "API设计: RESTful规范、接口文档、响应格式", "model": "zhipuai-coding-plan/glm-4.7", "reasoningEffort": "high" }, "deep": { "description": "深度思考: 架构设计、性能优化、重构方案、安全加固 - 最强推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "quick": { "description": "快速编码: 简单CRUD、工具类、配置文件、DTO/Entity - 自动选模型", "model": "volcengine-coding-plan/ark-code-latest" }, "ultrabrain": { "description": "全局超脑: 跨模块架构、技术债务评估、迁移方案、最终决策 - 国内最强80.2%", "model": "bailian-coding-plan/MiniMax-M2.5", "reasoningEffort": "xhigh" }, "unspecified-high": { "description": "高优兜底: 未分类高复杂度后端需求 - 深度推理", "model": "zhipuai-coding-plan/glm-5", "reasoningEffort": "xhigh" }, "unspecified-low": { "description": "低优兜底: 未分类常规后端需求 - 自动选模型", "model": "volcengine-coding-plan/ark-code-latest" }, "visual-engineering": { "description": "可视化辅助: 架构图分析、数据流图、ER图理解 - 视觉专用", "model": "zhipuai-coding-plan/glm-4.6v" }, "writing": { "description": "文档编写: API文档、架构文档、部署文档、技术方案", "model": "zhipuai-coding-plan/glm-4.7" } }, "ralph_loop": { "default_max_iterations": 50, "enabled": true } }

配置策略对比

配置项前端场景配置后端场景配置
核心攻坚模型MiniMax-M2.5 (国内最强 80.2%)MiniMax-M2.5 (国内最强 80.2%)
高频主力模型GLM-4.7 (前端强化)GLM-4.7 (业务逻辑)
视觉专用模型GLM-4.6v (设计稿转代码)GLM-4.6v (架构图分析)
快速编码模型ark-code-latest (自动选模型)ark-code-latest (自动选模型)
深度推理模型GLM-5 (评审/编排)GLM-5 (评审/编排)
架构师 AgentMiniMax-M2.5: 组件架构、状态管理、技术选型MiniMax-M2.5: 微服务、系统设计、数据模型
核心编码 AgentGLM-4.7: React/Vue 组件、TypeScript、状态管理GLM-4.7: 业务逻辑、API 实现、数据处理、MyBatis/JPA
代码评审 AgentGLM-5: 性能优化、类型安全、组件设计、可访问性GLM-5: 安全审计、SQL 优化、并发安全、架构合理性
视觉工程GLM-4.6v: 设计稿转代码、UI 截图分析、像素级复刻GLM-4.6v: 架构图分析、ER 图理解、日志可视化分析
任务规划 AgentMiniMax-M2.5: 分解任务、并行任务图、依赖分析MiniMax-M2.5: 分解任务、并行任务图、依赖分析

使用建议

Tip

什么时候用前端配置?

  • 开发 React/Vue 组件、实现 UI 交互和动画
  • 处理设计稿转代码、像素级 UI 还原
  • 前端架构设计、组件库开发
  • 前端性能优化、响应式布局

什么时候用后端配置?

  • 开发 API 接口和业务逻辑
  • 设计数据库模型、微服务架构
  • 优化 SQL 和数据处理、并发安全
  • 后端系统分析、分布式事务

质量优先策略要点

  • MiniMax-M2.5 用于最关键任务(架构决策、疑难问题、核心攻坚)
  • GLM-4.7 用于高频核心任务(日常编码、API 实现)
  • ark-code-latest 用于简单/兜底任务(自动选最合适模型)

注意:MiniMax-M2.5 额度有限,请省着用!

Last updated on