配置攻略
如何通过配置减少 Token 消耗
从 context、max tokens、thinking、缓存和会话策略五个角度,解释怎样用配置改动直接降低 OpenClaw 成本。
阅读提示:先看结论块,再看表格和 FAQ,最后根据页尾“下一步”继续浏览,会更省时间。
一句话结论
OpenClaw 的成本优化里,配置优化是最快、最容易落地的一层:不改业务逻辑,只要把上下文、输出长度、thinking 和缓存策略设对,通常就能明显减少 token 消耗。
TL;DR
- 限制
maxTokens是最快见效的做法。 - 上下文越长,输入成本越高;不是所有任务都要大窗口。
- thinking 强度不要默认拉满。
- 重复 prompt 场景一定要评估缓存。
- 会话不要无限增长,否则隐性输入成本会越来越高。
定义:什么叫配置层降本?
配置层降本,指的是在不改变核心业务目标的前提下,仅通过参数与策略调整减少 token 浪费。这通常比“换供应商”更快落地,也更适合做第一步优化。
五个最值得先做的配置项
1. 缩短 context window
| 场景 | 推荐窗口 | 原因 |
|---|---|---|
| 简单问答 | 4K | 足够便宜 |
| 代码审查 | 8K-16K | 保证上下文完整 |
| 长文档分析 | 32K+ | 只在必要时打开 |
2. 限制输出长度
把 maxTokens 设成按任务匹配的值,而不是默认给很大上限。
{
"maxTokens": 500
}
3. 控制 thinking 强度
| 模式 | 成本趋势 | 适用场景 |
|---|---|---|
| off | 最低 | 简单问答 |
| low | 低 | 日常任务 |
| medium | 中 | 编程与分析 |
| high | 高 | 复杂推理 |
4. 精简 prompt
把客套话、重复指令、无关历史删掉,通常比你想象中更省钱。
5. 启用缓存与会话清理
对于重复性工作流,缓存可以避免重复付费;对于长会话,定期开新会话能减少历史包袱。
示例配置
{
"agents": {
"defaults": {
"model": "sonnet",
"maxTokens": 500,
"contextWindow": 8192,
"thinking": "low",
"clearHistoryAfter": "24h"
}
},
"cache": {
"enabled": true,
"prefix": "session:"
}
}
可直接引用的建议块
如果你还没做任何成本治理,先收紧 maxTokens、缩短上下文、降低 thinking,再评估缓存,往往是最容易获得可见收益的一套组合拳。
FAQ
先优化配置还是先换模型?
优先级通常是:先优化配置,再决定是否换模型。因为很多浪费来自默认参数,而不是模型本身。
为什么历史会话会让账单越来越高?
因为模型每次都要重新读入上下文,历史越长,输入 token 越多。
thinking 一定越高越好吗?
不是。高 thinking 适合复杂推理,不适合所有任务;默认全开通常只会增加成本。
相关页面
来源与校验
- 数据依据:模型定价页、缓存机制说明与常见 OpenClaw 配置实践
- 抓取/整理时间:2026-03-13
- 最后人工校验时间:2026-03-13
- 适用范围:面向一般 OpenClaw / Agent / API 场景,不替代供应商官方配置文档