Skip to Content
其它AI 编程模型选型指南

AI 编程模型选型指南

本文整理主流 AI 编程模型在软件工程各环节的适配建议,帮助开发者根据场景选择最合适的模型。

Note

本文数据基于 2026 年 2 月官方文档,模型迭代迅速,请以各平台最新公告为准。


一、模型总览

国外 Coding Plan

Claude Coding Plan(Anthropic)

类型模型特点
旗舰claude-opus-4-6SWE-bench Verified 80.8%、1M 上下文(beta)、Adaptive Thinking、Terminal-Bench 2.0 SOTA
主力claude-sonnet-4-6SWE-bench Verified 79.6%、1M 上下文(beta)、性价比最优
高效claude-sonnet-4-5SWE-bench Verified 77.2%、200K 上下文、速度与智能平衡
轻量claude-3-5-sonnetSWE-bench Verified 49.0%、经典版本、成本友好
Tip

Claude Code 是 Anthropic 官方编程代理工具,支持终端 CLI、IDE 集成(VS Code、JetBrains)、多文件操作、Git 自动化。Claude Pro 订阅($20/月)即可使用。

API 定价(每百万 Token)

模型输入输出
Claude Opus 4.6$5$25
Claude Sonnet 4.6$3$15

OpenAI Coding Plan

类型模型特点
旗舰gpt-5.2SWE-bench ~76%、400K 上下文、128K 输出、多模态
推理o3SWE-bench Verified 71.7%、200K 上下文、Deep Think 模式
高效o3-mini200K 上下文、14x 便宜于 o3、函数调用强化
通用gpt-4o128K 上下文、多模态、Canvas 协作编辑
轻量gpt-4o-mini128K 上下文、高性价比、批量处理
Tip

Canvas 是 OpenAI 的协作编辑空间,支持实时编码协作。Code Interpreter 支持代码执行和数据分析。Codex 系列专为代理编码优化。

API 定价(每百万 Token)

模型输入输出
GPT-5.2$1.75$14
o3$2$8
o3-mini$1.10$4.40
GPT-4o$5$15
GPT-4o-mini$0.15$0.60

订阅计划

  • Plus:$20/月,含 GPT-5、o1 访问
  • Pro:$95/月,含 o3-pro、更高额度

Gemini Coding Plan(Google)

类型模型特点
旗舰gemini-3-proSWE-bench Verified 74.2%、1M 上下文、Deep Think 模式
高效gemini-3-flashSWE-bench Verified 75.2%、速度快、成本低
长上下文gemini-2.5-proSWE-bench Verified 73.1%、1M-10M 上下文
Tip

Gemini 提供 1M-10M Token 超长上下文,适合整代码库分析。Google One AI Premium 订阅 $18.99/月。

API 定价(每百万 Token)

模型输入输出
Gemini 3 Pro$1.25$5
Gemini 3 Flash$0.075$0.30

国内 Coding Plan

百炼 Coding Plan(阿里云)

类型模型特点
通用旗舰qwen3.5-plusqwen3-max深度思考、万亿参数、系统级能力
代码专用qwen3-coder-nextqwen3-coder-plusMoE 架构、SWE-bench 69.6%、1M 上下文
第三方旗舰MiniMax-M2.5SWE-bench 80.2%、MoE(230B/10B)、Agent 原生
第三方通用glm-5glm-4.7kimi-k2.5兼容智谱、月之暗面模型
Tip

百炼 Coding Plan 首购低至 ¥7.9/月,续费 5 折起。支持 Qwen Code、Claude Code、Cline、OpenClaw 等主流编程工具。基础版 ¥40/月(18000 次/月),高级版 ¥200/月(90000 次/月)。

官方文档:Coding Plan 使用指南  | 活动页面 

方舟(火山引擎)

类型模型特点
视觉编码Doubao-Seed-Code视觉理解、UI 设计稿转代码
长上下文Doubao-Seed-2.0-Code256k 长上下文、SWE-bench Verified 76.5%、支持 200+ 编程语言
第三方deepseek-chatglm-4.7kimi-k2.5kimi-k2-thinking多模型支持
Tip

方舟 Coding Plan 首月 ¥9.9 起,续费 ¥40/月起。Lite 套餐约 1200 次/5h,Pro 套餐约 6000 次/5h。支持 Auto 模式智能选模型,原生兼容 Claude API。

官方文档:套餐概览  | 活动页面 

GLM Coding Plan(智谱 AI)

类型模型特点
旗舰glm-5SWE-bench Verified 77.8%(开源 SOTA)、逼近 Claude Opus 4.5、长程规划能力
主力glm-4.7SWE-bench Verified 73.8%、前端/Agentic Coding 强化、工具调用 τ²-Bench 84.7
轻量glm-4.5-air轻量级编码、106B 参数(12B 激活)、成本优先
Tip

GLM Coding Plan 套餐采用 5 小时+周限额双重刷新机制。Lite(¥20/月):~80 次/5h、~400 次/周;Pro(¥100/月):~400 次/5h、~2000 次/周;Max(¥300/月):~1600 次/5h、~8000 次/周。GLM-5 调用按 2-3 倍抵扣。

官方文档:套餐概览  | 活动页面 

MiniMax Coding Plan

类型模型特点
旗舰MiniMax-M2.5SWE-bench Verified 80.2%、Multi-SWE-Bench 51.3%(第一)、Agent 原生
高效MiniMax-M2.5-Lightning100 TPS 高吞吐、极速版(效果不变,速度显著提升)
Tip

MiniMax Coding Plan 已于 2026 年 2 月推出,主打「极致性价比+极速编程体验」。核心亮点:

  • 编程能力:SWE-bench Verified 得分 80.2%,接近 Claude Opus 4.6
  • 推理速度:100+ TPS 超高吞吐量,端到端任务延迟极低
  • 成本优势:满负荷运行成本约 1 美元/小时,仅为 Claude 对应计划的 1/10

官方文档:MiniMax 官网  | Hugging Face 

套餐与定价

套餐档月费(连续包月)年费(连续包年)用量限制核心定位
Starter约 ¥29/月立省 ¥87,¥261/年40 prompts / 5小时入门级开发场景
Plus约 ¥49/月立省 ¥147,¥588/年100 prompts / 5小时专业级复杂任务

核心权益

  1. 模型支持:全面搭载 MiniMax M2.5,并根据资源负载自动调度 M2.5-lightning 极速版(效果不变,速度显著提升)
  2. 工具生态:支持 10+ 主流编程工具,内置图像理解、联网搜索等 MCP 专属工具
  3. 成本优势:满负荷运行成本约 1 美元/小时,仅为 Claude 对应计划的 1/10

选型建议

  • Starter 套餐:适合个人开发者入门、轻量级脚本编写、日常代码补全
  • Plus 套餐:适合专业开发者、复杂系统设计、多语言项目开发(如 Flutter、React Native 跨端应用)

其他模型

模型特点
kimi-k2.5MoE 架构、1T 参数(32B 激活)、Agent 能力突出、多智能体协作
kimi-k2-thinkingMoE 架构、深度推理、强制开启思考模式
deepseek-chatDeepSeek-V3、64k 上下文、数据处理/API 开发、性价比高
deepseek-reasonerDeepSeek-R1、CoT 推理(32k)、复杂逻辑推理

二、SWE-bench Verified 排行榜(2026 年 2 月)

排名模型分数厂商备注
1Claude Opus 4.680.8%Anthropic当前最强
2MiniMax-M2.580.2%MiniMaxAgent 原生、1M 上下文
3Claude Sonnet 4.679.6%Anthropic性价比最优
4GLM-577.8%智谱 AI开源 SOTA
5Claude Sonnet 4.577.2%Anthropic-
6Doubao-Seed-2.0-Code76.5%火山引擎200+ 语言
7GPT-5.2~76%OpenAI多模态
8Gemini 3 Flash75.2%Google高效版
9Gemini 3 Pro74.2%Google1M 上下文
10GLM-4.773.8%智谱 AI前端强化
11Gemini 2.5 Pro73.1%Google1M-10M 上下文

三、软件工程环节适配

1. 需求分析与架构设计

国外claude-opus-4-6 > gpt-5.2

国内glm-5 > qwen3-max

场景优势
前端:复杂 SPA 架构、微前端、跨端方案深度思考/长程规划,自主完成系统级设计
后端:分布式架构、微服务拆分、数据库设计长程推理、系统级能力

备选claude-sonnet-4-6 > glm-4.7 > qwen3.5-plus — 中等复杂度架构、接口契约设计

2. 代码生成

前端(UI/交互/组件)

推荐顺序国外模型国内模型优势
1claude-sonnet-4-6glm-4.7 > glm-5前端美感/布局/动效显著提升
2gemini-3-flashDoubao-Seed-2.0-Code > qwen3-coder-plus代码质量高、长上下文
3gpt-4okimi-k2.5 > qwen3.5-plus简单页面、表单、快速原型

后端(API/业务逻辑/数据处理)

推荐顺序国外模型国内模型优势
1claude-opus-4-6glm-5 > qwen3-coder-plus > deepseek-chat复杂逻辑/多语言/框架适配、错误处理完善
2gpt-5.2 > o3glm-4.7 > qwen3-max业务逻辑编码、中间件集成
3o3-minikimi-k2.5 > qwen3.5-plus简单接口、脚本、数据处理

3. 代码审查与重构

国外claude-opus-4-6 > o3

国内glm-5 > qwen3-max

场景能力
前端代码规范、性能优化、可访问性、组件复用
后端安全漏洞、性能瓶颈、架构优化

备选claude-sonnet-4-6 > glm-4.7 > qwen3-coder-plus — 常规审查、风格统一

4. 调试与排错

国外claude-sonnet-4-6 > o3-mini

国内glm-4.7 > qwen3-coder-plus

场景能力
前端浏览器调试、跨端兼容性、样式冲突
后端日志分析、异常定位、接口联调

5. 测试与文档

场景国外推荐国内推荐
前端:单元测试、E2E 测试、组件文档claude-sonnet-4-6 > gpt-4oglm-4.7 > qwen3-coder-plus
后端:接口测试、API 文档o3-mini > gpt-5.2glm-5 > qwen3-coder-plus
通用:简单测试、基础文档gpt-4o-miniglm-4.5-air > kimi-k2.5

6. Rust 开发

国外claude-opus-4-6 > o3

国内glm-5 > qwen3-coder-plus

场景优势
系统编程:OS、驱动、运行时深度推理、内存安全理解、所有权/借用分析
并发编程:异步运行时、Actor 模型复杂生命周期推理、类型系统精通
嵌入式:no_std、交叉编译资源约束理解、底层优化

备选claude-sonnet-4-6 > gemini-3-pro — 日常 Rust 开发、CLI 工具

Note

Rust 的类型系统和所有权模型需要模型具备强推理能力,优先选择深度思考模型。

7. C++ 开发

国外claude-opus-4-6 > gemini-3-pro

国内glm-5 > Doubao-Seed-2.0-Code

场景优势
游戏引擎:Unreal、自研引擎长上下文(大型项目)、性能优化、图形学知识
图形学:渲染管线、Shader数学基础、GPU 架构理解、多语言支持
高性能计算:科学计算、金融模板元编程、SIMD 优化、并行计算
嵌入式:固件、驱动底层内存管理、硬件抽象

备选claude-sonnet-4-6 > qwen3-coder-plus — 常规 C++ 开发、Qt 应用

Note

C++ 项目通常规模大、历史代码多,长上下文模型(Gemini 3 Pro 1M、qwen3-coder-plus 1M)有显著优势。

8. 算法与竞赛编程

国外o3 > claude-opus-4-6

国内glm-5 > deepseek-reasoner

场景优势
LeetCode/面试题Deep Think/CoT 推理、多解法生成、复杂度分析
Codeforces/AtCoder竞赛策略、边界条件、测试用例生成
ACM/ICPC团队协作场景、算法组合、时间优化

备选claude-sonnet-4-6 > qwen3.5-plus — 中等难度题目、快速原型

Tip

算法场景优先选择支持「深度思考」模式的模型(o3 Deep Think、GLM-5、deepseek-reasoner),强制开启 CoT 推理。


四、模型对比表

国外模型

模型SWE-bench上下文核心优势API 定价(输入/输出)
Claude Opus 4.680.8%200K/1M编码 SOTA、Adaptive Thinking、代理任务5/5/25
Claude Sonnet 4.679.6%200K/1M性价比最优、日常开发3/3/15
GPT-5.2~76%400K多模态、通用能力强1.75/1.75/14
o371.7%200KDeep Think 推理、STEM 任务2/2/8
o3-mini-200K高效推理、14x 便宜于 o31.10/1.10/4.40
Gemini 3 Pro74.2%1M超长上下文、Deep Think1.25/1.25/5
Gemini 3 Flash75.2%1M高效版、速度快0.075/0.075/0.30

国内模型

模型SWE-bench上下文核心优势
MiniMax-M2.580.2%1MAgent 原生、MoE(230B/10B)、BFCL 76.8%
GLM-577.8%1M开源 SOTA、Agentic、长程规划
Doubao-Seed-2.0-Code76.5%256K200+ 语言、视觉转代码
GLM-4.773.8%200K前端美感、工具调用 SOTA
qwen3-max--深度思考、系统级能力
qwen3-coder-plus69.6%1MMoE、多语言、长上下文
kimi-k2.576.8%256KAgent 能力、多智能体协作
deepseek-chat-1M性价比高、API 开发

视觉转代码模型对比

Tip

视觉转代码(Vision-to-Code)能力指模型从截图、设计稿、手绘草图等视觉输入生成可执行代码的能力。

模型视觉能力核心优势上下文API 定价(输入/输出)
GLM-4.6V像素级复刻、多轮调试原生 Function Calling、首个视觉模型支持工具调用128K¥1/¥3(每百万 Token)
Qwen3.5-Plus截图转代码、草图转前端原生多模态架构、1M 长上下文1M¥0.8/¥2.4
Claude Sonnet 4.6Computer Use、截屏操作自主桌面交互、WebArena SOTA1M3/3/15
Doubao-Seed-Code设计稿转代码、草图转游戏SWE-bench 76.5%、成本 -62.7%256K超低成本

选型建议

场景国外推荐国内推荐
设计稿还原Claude Sonnet 4.6GLM-4.6V > Doubao-Seed-Code
手绘草图转代码GPT-4oQwen3.5-Plus
UI 自动化测试Claude Sonnet 4.6 (Computer Use)GLM-4.6V
复杂页面重构Claude Sonnet 4.6Qwen3.5-Plus (1M 上下文)

五、选型建议

按地区选型

地区架构/设计前端编码后端编码调试/重构测试/文档
国外Claude Opus 4.6 / GPT-5.2Claude Sonnet 4.6 > Gemini 3 FlashClaude Opus 4.6 > GPT-5.2Claude Sonnet 4.6 / o3-miniClaude Sonnet 4.6 / GPT-4o
国内MiniMax-M2.5 / GLM-5GLM-4.7 > MiniMax-M2.5MiniMax-M2.5 > GLM-5MiniMax-M2.5 / GLM-4.7MiniMax-M2.5 / Kimi-K2.5

按场景选型

场景国外推荐国内推荐
复杂架构设计Claude Opus 4.6MiniMax-M2.5 > GLM-5
日常前端开发Claude Sonnet 4.6GLM-4.7 > MiniMax-M2.5
大规模代码分析Gemini 3 Pro(1M 上下文)MiniMax-M2.5(1M 上下文) > qwen3-coder-plus
视觉转代码Claude Sonnet 4.6 > GPT-4oGLM-4.6V > Doubao-Seed-Code > Qwen3.5-Plus
高性价比开发o3-mini / GPT-4o-miniMiniMax-M2.5 > deepseek-chat
代理编码(Agentic)Claude Code / GPT-5.2-CodexMiniMax-M2.5 > GLM-5

六、oh-my-opencode 配置示例

Tip

oh-my-opencode 是 OhMyOpenCode 项目的配置系统,通过为不同 Agent 和 Category 分配最适合的模型,实现编码效率最大化。

配置选择指南

根据你的地区技术栈选择对应配置:

地区技术栈推荐配置核心模型
国外前端 (React/Vue)国外前端配置Claude Sonnet 4.6 + Gemini 3 Flash
国外后端 (Java/C++/Rust)国外后端配置Claude Opus 4.6 + o3
国内前端 (React/Vue)国内前端配置GLM-4.7 + Doubao-Seed-2.0-Code
国内后端 (Java/C++/Rust)国内后端配置GLM-5 + qwen3-coder-plus

配置结构说明

配置文件包含以下核心部分:

  • agents: 各角色专用模型配置(atlas 架构师、metis 核心编码、oracle 疑难问题等)
  • categories: 任务类型模型配置(artistry UI、deep 深度思考、quick 快速编码等)
  • background_task: 并发控制配置
  • ralph_loop: 自循环开发模式配置

国外前端配置(Claude + Gemini)

适用场景:React/Vue 前端开发,Claude Pro 订阅,追求最高代码质量。

展开查看完整配置

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "国外前端配置 - Claude 主力,Gemini 长上下文", "agents": { "atlas": { "model": "anthropic/claude-opus-4-6", "description": "前端架构师: 组件架构、状态管理、技术选型" }, "explore": { "model": "openai/gpt-4o-mini", "description": "前端调研: 框架新特性、组件库、最佳实践【快速响应】" }, "librarian": { "model": "google/gemini-3-flash", "description": "代码资产: React/Vue 组件模板、Hooks、工具函数(1M 长上下文)" }, "metis": { "model": "anthropic/claude-sonnet-4-6", "description": "核心编码: React/Vue 组件、TypeScript、状态管理" }, "momus": { "model": "anthropic/claude-opus-4-6", "description": "前端评审: 性能优化、类型安全、组件设计、可访问性" }, "oracle": { "model": "openai/o3", "description": "疑难问题: 构建、兼容性、微前端【深度推理】" } }, "categories": { "artistry": { "model": "anthropic/claude-sonnet-4-6", "description": "UI 样式: Tailwind、响应式、动画、设计稿像素级还原" }, "deep": { "model": "anthropic/claude-opus-4-6", "description": "深度思考: 前端架构、性能优化、重构方案" }, "quick": { "model": "openai/gpt-4o-mini", "description": "快速编码: 简单组件、工具函数、CSS 样式、原型验证" }, "visual-engineering": { "model": "anthropic/claude-sonnet-4-6", "description": "视觉工程: 设计稿转代码、数据可视化、图表" }, "writing": { "model": "google/gemini-3-flash", "description": "文档编写: 组件文档、Storybook、README" } }, "background_task": { "defaultConcurrency": 3 }, "ralph_loop": { "enabled": true, "default_max_iterations": 50 } }

国外后端配置(Claude + o3)

适用场景:Java/C++/Rust 后端开发,Claude Pro 订阅,复杂系统架构设计。

展开查看完整配置

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "国外后端配置 - Claude Opus 架构 + o3 推理", "agents": { "atlas": { "model": "anthropic/claude-opus-4-6", "description": "后端架构师: 微服务架构、系统设计、技术选型" }, "explore": { "model": "openai/gpt-4o-mini", "description": "后端调研: 框架新特性、中间件、最佳实践【快速响应】" }, "librarian": { "model": "google/gemini-3-flash", "description": "代码资产: Service/DTO 模板、API 模式、设计模式" }, "metis": { "model": "anthropic/claude-sonnet-4-6", "description": "核心编码: 业务逻辑、API 实现、数据处理" }, "momus": { "model": "anthropic/claude-opus-4-6", "description": "后端评审: 安全审计、性能分析、SQL 优化、并发安全" }, "oracle": { "model": "openai/o3", "description": "疑难问题: 分布式问题、性能瓶颈、死锁、内存泄漏【深度推理】" }, "prometheus": { "model": "anthropic/claude-opus-4-6", "description": "核心攻坚: 分布式事务、高并发设计、系统重构" } }, "categories": { "artistry": { "model": "anthropic/claude-sonnet-4-6", "description": "API 设计: RESTful 规范、接口文档、响应格式" }, "deep": { "model": "anthropic/claude-opus-4-6", "description": "深度思考: 架构设计、性能优化、重构方案、安全加固" }, "quick": { "model": "openai/gpt-4o-mini", "description": "快速编码: 简单 CRUD、工具类、配置文件、DTO/Entity" }, "ultrabrain": { "model": "openai/o3", "description": "全局超脑: 跨模块架构、技术债务评估、迁移方案【深度推理】" }, "writing": { "model": "google/gemini-3-flash", "description": "文档编写: API 文档、架构文档、部署文档" } }, "background_task": { "defaultConcurrency": 3 }, "ralph_loop": { "enabled": true, "default_max_iterations": 50 } }

国内前端配置(GLM 主力)

适用场景:React/Vue 前端开发,GLM Coding Plan 订阅,追求最佳综合效果。

展开查看完整配置

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "国内前端配置 - GLM 主力体系,Doubao 仅用于视觉转代码" "agents": { "atlas": { "model": "zhipuai-coding-plan/glm-5", "description": "前端架构师: 组件架构、状态管理、技术选型", "reasoningEffort": "xhigh" }, "explore": { "model": "zhipuai-coding-plan/glm-4.7", "description": "前端调研: 框架新特性、组件库、最佳实践" }, "librarian": { "model": "bailian-coding-plan/qwen3-coder-plus", "description": "代码资产: React/Vue 组件模板、Hooks、工具函数(1M 长上下文)" }, "metis": { "model": "zhipuai-coding-plan/glm-4.7", "description": "核心编码: React/Vue 组件、TypeScript、状态管理(前端强化)" }, "momus": { "model": "zhipuai-coding-plan/glm-5", "description": "前端评审: 性能优化、类型安全、组件设计、可访问性", "reasoningEffort": "xhigh" }, "multimodal-looker": { "model": "doubao-coding-plan/Doubao-Seed-Code", "description": "多模态专家: 设计稿转代码、UI 截图分析" }, "oracle": { "model": "zhipuai-coding-plan/glm-5", "description": "疑难问题: 构建、兼容性、性能瓶颈", "reasoningEffort": "xhigh" }, "prometheus": { "model": "zhipuai-coding-plan/glm-5", "description": "核心攻坚: 复杂交互、动画系统、大型表单", "reasoningEffort": "xhigh" } }, "background_task": { "defaultConcurrency": 3, "providerConcurrency": { "zhipuai-coding-plan": 3, "bailian-coding-plan": 1, "doubao-coding-plan": 1 }, "modelConcurrency": { "zhipuai-coding-plan/glm-5": 1, "zhipuai-coding-plan/glm-4.7": 2 } }, "categories": { "artistry": { "model": "zhipuai-coding-plan/glm-4.7", "description": "UI 样式: Tailwind、响应式、动画、设计稿像素级还原", "reasoningEffort": "high" }, "deep": { "model": "zhipuai-coding-plan/glm-5", "description": "深度思考: 前端架构、性能优化、重构方案", "reasoningEffort": "xhigh" }, "quick": { "model": "zhipuai-coding-plan/glm-4.5-air", "description": "快速编码: 简单组件、工具函数、CSS 样式、原型验证" }, "ultrabrain": { "model": "zhipuai-coding-plan/glm-5", "description": "全局超脑: 跨组件架构、技术债务评估、迁移方案", "reasoningEffort": "xhigh" }, "visual-engineering": { "model": "doubao-coding-plan/Doubao-Seed-Code", "description": "视觉工程: 设计稿转代码、数据可视化、图表", "reasoningEffort": "high" }, "writing": { "model": "zhipuai-coding-plan/glm-4.7", "description": "文档编写: 组件文档、Storybook、README" } }, "ralph_loop": { "enabled": true, "default_max_iterations": 50 } }

国内后端配置(GLM 主力)

适用场景:Java/C++/Rust 后端开发,GLM Coding Plan 订阅,追求最佳综合效果。

展开查看完整配置

{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "_comment": "国内后端配置 - GLM 主力体系,qwen 仅用于长上下文场景" "agents": { "atlas": { "model": "zhipuai-coding-plan/glm-5", "description": "后端架构师: 微服务架构、系统设计、技术选型", "reasoningEffort": "xhigh" }, "explore": { "model": "zhipuai-coding-plan/glm-4.7", "description": "后端调研: 框架新特性、中间件、数据库优化" }, "librarian": { "model": "bailian-coding-plan/qwen3-coder-plus", "description": "代码资产: Service/DTO 模板、API 模式(1M 长上下文)" }, "metis": { "model": "zhipuai-coding-plan/glm-4.7", "description": "核心编码: 业务逻辑、API 实现、数据处理、MyBatis/JPA" }, "momus": { "model": "zhipuai-coding-plan/glm-5", "description": "后端评审: 安全审计、性能分析、SQL 优化、并发安全", "reasoningEffort": "xhigh" }, "multimodal-looker": { "model": "zhipuai-coding-plan/glm-4.6v", "description": "多模态辅助: 架构图分析、ER 图理解、日志可视化分析" }, "oracle": { "model": "zhipuai-coding-plan/glm-5", "description": "疑难问题: 分布式问题、性能瓶颈、死锁、内存泄漏", "reasoningEffort": "xhigh" }, "prometheus": { "model": "zhipuai-coding-plan/glm-5", "description": "核心攻坚: 分布式事务、高并发设计、系统重构", "reasoningEffort": "xhigh" } }, "background_task": { "defaultConcurrency": 3, "providerConcurrency": { "zhipuai-coding-plan": 3, "bailian-coding-plan": 1 }, "modelConcurrency": { "zhipuai-coding-plan/glm-5": 1, "zhipuai-coding-plan/glm-4.7": 2 } }, "categories": { "artistry": { "model": "zhipuai-coding-plan/glm-4.7", "description": "API 设计: RESTful 规范、接口文档、响应格式", "reasoningEffort": "high" }, "deep": { "model": "zhipuai-coding-plan/glm-5", "description": "深度思考: 架构设计、性能优化、重构方案、安全加固", "reasoningEffort": "xhigh" }, "quick": { "model": "zhipuai-coding-plan/glm-4.5-air", "description": "快速编码: 简单 CRUD、工具类、配置文件、DTO/Entity" }, "ultrabrain": { "model": "zhipuai-coding-plan/glm-5", "description": "全局超脑: 跨模块架构、技术债务评估、迁移方案", "reasoningEffort": "xhigh" }, "visual-engineering": { "model": "zhipuai-coding-plan/glm-4.6v", "description": "可视化辅助: 架构图分析、数据流图、ER 图理解" }, "writing": { "model": "zhipuai-coding-plan/glm-4.7", "description": "文档编写: API 文档、架构文档、部署文档" } }, "ralph_loop": { "enabled": true, "default_max_iterations": 50 } }

配置要点说明

模型选择原则

  1. 架构师(atlas):选择最强推理模型(Opus/GLM-5),负责系统级决策
  2. 核心编码(metis):选择高性价比编码模型(Sonnet/qwen3-coder),日常开发主力
  3. 评审(momus):选择深度思考模型,确保代码质量
  4. 疑难问题(oracle):选择推理模型(o3/GLM-5),处理复杂问题

并发控制

国内平台有并发限制,需要根据订阅套餐调整:

  • Lite 套餐defaultConcurrency: 1
  • Pro 套餐defaultConcurrency: 2-3
  • Max 套餐defaultConcurrency: 4-5

reasoningEffort 参数

  • xhigh:最大推理深度,用于架构设计、复杂问题
  • high:较高推理深度,用于核心编码
  • 不设置:默认推理深度,用于快速任务

多模态配置(GLM-4.6V)

GLM-4.6V 是智谱 AI 的视觉语言模型,支持设计稿转代码、像素级复刻、多轮视觉调试等能力。配置示例:

{ "multimodal-looker": { "model": "zhipuai-coding-plan/glm-4.6v", "description": "多模态专家: 设计稿转代码、UI 截图分析、视觉调试" }, "categories": { "visual-engineering": { "model": "zhipuai-coding-plan/glm-4.6v", "description": "视觉工程: 设计稿转代码、数据可视化、图表", "reasoningEffort": "high" } } }

使用场景

  • 上传网页截图或设计稿,生成 HTML/CSS/JS 代码
  • 基于截图进行多轮视觉交互修改
  • UI 自动化测试与视觉回归检查

七、并发限制说明

Note

限制类型说明

  • 动态限制:国外平台根据账户历史、使用模式动态调整,不公开固定并发数
  • 固定并发:国内平台明确限制同时进行的请求数量
  • 按合同:企业版根据合同约定配置
平台套餐限制类型并发/额度订阅价格
AnthropicClaude Pro动态5x Free / 5小时重置$20/月
AnthropicClaude Max 5x动态5x Pro / 双重周限制$100/月
AnthropicClaude Max 20x动态20x Pro / 双重周限制$200/月
OpenAIPlus动态~45条/3小时 (GPT-4o)$20/月
OpenAIPro动态无限 o1 / 更高限额$200/月
GoogleAI Premium动态按令牌配额$18.99/月
百炼基础版固定并发4并发 / 18000次/月¥40/月
百炼高级版固定并发4并发 / 90000次/月¥200/月
智谱 GLMLite固定并发1并发 / ~80次/5h¥20/月
智谱 GLMPro固定并发3并发 / ~400次/5h¥100/月
智谱 GLMMax固定并发8并发 / ~1600次/5h¥300/月
MiniMaxStarter固定并发40 prompts/5h¥29/月(首月¥9.9)
MiniMaxPlus固定并发100 prompts/5h¥49/月
MiniMaxMax固定并发300 prompts/5h¥119/月
方舟Lite固定并发4并发 / ~1200次/5h¥40/月(首月¥9.9)
方舟Pro固定并发8并发 / ~6000次/5h¥200/月(首月¥49.9)
方舟企业版按合同5-20并发 / 控制台配置按需

八、总结

国外模型

场景核心选型
前端claude-sonnet-4-6 > claude-opus-4-6(架构) > gemini-3-pro(长上下文)
后端claude-opus-4-6 > gpt-5.2 > o3-mini(性价比)
Rust/C++claude-opus-4-6 > gemini-3-pro(大型 C++)
算法o3 > claude-opus-4-6

国内模型

场景核心选型
前端glm-4.7 > MiniMax-M2.5 > Doubao-Seed-Code(视觉)
后端MiniMax-M2.5 > glm-5 > qwen3-coder-plus(长上下文)
Rust/C++MiniMax-M2.5 > glm-5 > qwen3-coder-plus(长上下文 C++)
算法MiniMax-M2.5 > glm-5 > deepseek-reasoner

选型原则

  1. 高复杂度任务:Claude Opus 4.6(国外)或 MiniMax-M2.5(国内)— 仅差 0.6%
  2. 日常开发:Claude Sonnet 4.6(国外)或 GLM-4.7(国内)
  3. 高性价比:o3-mini(国外)或 MiniMax-M2.5/deepseek-chat(国内)— 约 1/10 成本
  4. 超长上下文:Gemini 3 Pro(1M)或 MiniMax-M2.5/qwen3-coder-plus(1M)
  5. 代理编码:Claude Code(国外)或 MiniMax-M2.5(国内)— Agent 原生设计
  6. 系统编程:Claude Opus 4.6(国外)或 MiniMax-M2.5(国内)— Rust/C++ 需要强推理能力
  7. 算法竞赛:o3(国外)或 MiniMax-M2.5/deepseek-reasoner(国内)— 强制开启深度思考
  8. 视觉编码:Claude Sonnet 4.6(国外)或 Doubao-Seed-Code(国内)— 设计稿转代码

九、模型平替对照表

按能力等级匹配

能力等级国外模型国内平替差异说明
旗舰(SOTA)claude-opus-4-6MiniMax-M2.5SWE-bench 差距仅 0.6%,MiniMax Agent 原生
主力(日常)claude-sonnet-4-6glm-4.7 > Doubao-Seed-2.0-Code国内模型前端/视觉能力更强
高效(性价比)o3-mini > gemini-3-flashMiniMax-M2.5 > deepseek-chat国内定价更低,约 1/10 Claude
轻量(快速)gpt-4o-miniglm-4.5-air > kimi-k2.5轻量级任务,成本优先

按场景匹配

场景国外推荐国内平替匹配理由
架构设计claude-opus-4-6 > gpt-5.2MiniMax-M2.5 > glm-5Agent 原生、深度思考
前端开发claude-sonnet-4-6glm-4.7 > MiniMax-M2.5前端美感、Agent 能力
后端开发claude-opus-4-6 > gpt-5.2MiniMax-M2.5 > glm-5SWE-bench 80.2%
Rust/C++claude-opus-4-6 > gemini-3-proMiniMax-M2.5 > glm-5强推理、长上下文
算法竞赛o3 > claude-opus-4-6MiniMax-M2.5 > deepseek-reasonerDeep Think / CoT 推理
长上下文gemini-3-pro(1M)MiniMax-M2.5(1M) > qwen3-coder-plus(1M)超长上下文、代码库分析
高性价比o3-mini > gpt-4o-miniMiniMax-M2.5 > deepseek-chat约 1/10 Claude 成本
视觉编码claude-sonnet-4-6 > gpt-4oglm-4.6v > Doubao-Seed-CodeGLM-4.6V 原生工具调用、像素级复刻

平替原则

  1. 性能优先:国外 SOTA 模型(Claude Opus 4.6)仍是首选,国内 MiniMax-M2.5 差距仅 0.6%
  2. 成本优先:国内模型 API 定价普遍更低,MiniMax-M2.5 性价比最高(约 1/10 Claude)
  3. 合规优先:国内项目优先选择国内模型,避免跨境数据传输
  4. 长上下文:Gemini 3 Pro(1M-10M)无国内平替,MiniMax-M2.5/qwen3-coder-plus(1M)为最佳替代
  5. Agent 能力:MiniMax-M2.5 是国内首家「Agent 原生」编程模型,BFCL 76.8%、BrowseComp 76.3%
Last updated on