Max 模式
Max Mode(最大化模式)让您能够充分发挥 Cursor 高级 AI 模型的全部能力。该模式专为需要额外处理能力和更深度分析的场景而设计。
对比
普通模式与 Max 模式的核心差异在于上下文处理方式——Max 模式经过优化,能够处理尽可能多的上下文。具体表现为:
- 更大的上下文窗口
- 最多支持 200 次工具调用(无需请求延续)
- 文件读取工具可读取多达 750 行代码
上下文窗口容量对比
以下是不同上下文窗口规模在实际应用中的处理能力示例(基于真实代码库案例):
Token 数量 | 规模 | 实际案例 | 适用场景 |
---|---|---|---|
10,000 | 小型 | 单一工具库 | 类似 Underscore.js 的工具库,或少量 React 组件 |
60,000 | 中型 | 工具集合库 | Lodash 等中型库的大部分代码 |
120,000 | 大型 | 完整工具库 | 完整的工具库或大型框架的核心模块 |
200,000 | 超大型 | Web 框架 | Express 等完整框架或 Tokio 等运行时库 |
1,000,000 | 超大规模 | 框架核心 | Django 等主流框架的核心代码(不含测试用例) |
备注
实际 Token 消耗量会因代码风格、注释内容和分词方式有所差异。例如根据 Google 官方文档建议,100 万 Token 通常可处理约 30,000-50,000 行代码(按每行 80 字符计算)。
定价
Max 模式的费用基于令牌(Token)计算,Cursor 收取模型供应商 API 价格基础上增加 20% 的加价。该费用包含来自您的消息、代码文件、文件夹、工具调用以及提供给模型的所有其他上下文的全部令牌(Token)。详细定价请参阅模型文档。
您可以在账户控制面板查看令牌(Token)用量。
令牌(Token)类型
模型供应商根据缓存等能力提供不同层级的定价。以下是 各类令牌(Token)类型的详细说明及其含义。您可以通过 OpenAI 的令牌化工具查看令牌(Token)计算示例(注:此工具仅作演示用途,我们实际使用不同的底层令牌化方案)。
类型 | 描述 | 示例 | 成本 |
---|---|---|---|
输入 | 模型首次接收的令牌 | 新消息 | 较高 |
输入(已缓存) | 模型之前已处理过并决定缓存以供未来用户使用的令牌 | 聊天中的历史消息 | 较低 |
输出 | 模型返回的令牌 | 模型响应(多为代码) | 较高 |
如何使用 Max 模式
要启用 Max 模式,请按以下步骤操作:
- 打开模型选择器
- 切换
Max 模式
开关 - 从下拉菜单中选择兼容的模型
常见问题解答
何时应该使用 Max 模式?
Max 模式特别适用于需要模型进行深度思考和推理的复杂问题场景。对于大多数常规任务,我们仍推荐使用普通模式。
为什么并非所有模型都支持 Max 模式?
Max 模式专为需要大上下文窗口的复杂操作设计。当模型的上下文窗口小于 100k tokens 时,使 用 Max 模式带来的性能提升会显著降低。