TL;DR: 2026.4.21 表面看没有炫酷的新功能,但 Discord 启动时间减少 98%、Telegram 减少 14 秒、安全修复密集上线——如果你在资源受限环境跑 OpenClaw,这个版本值得立即升级。
这个版本在解决什么问题
如果你用过旧版 OpenClaw,大概见过这种场景:服务器重启后,等了快半分钟 Gateway 才就绪。Discord 插件加载尤其慢,因为它把整个 Carbon UI 运行时都拖进来了——哪怕你根本不用 Discord 的图形界面。
这是架构设计遗留问题:插件在启动时"一窝蜂"初始化,不管你用不用都得全部加载一遍。2026.4.21 开始用"懒加载"思路重新设计,启动速度大幅改善。
启动优化:具体是怎么做到的
Discord:从 30 秒到 0.3 秒
Discord 的优化幅度是这次最大的,PR 描述里写的是"减少约 98%"。实话说我第一反应是觉得这个数字有点夸张,但看了代码改动后就理解了。
之前 Discord 插件启动时会同步加载 Carbon UI 运行时,这部分在内存和解析时间上的开销很大。新版把 Carbon UI 改成"需要时才加载"——你打开 Discord 面板才触发,平时根本不碰。
Telegram 和 Matrix 也有类似优化。Telegram 的 setup runtime 注册时间从"等半天"变成了"几乎瞬间",Matrix 冷启动减少了 1.8 秒。这些数字看起来不大,但在树莓派或者低配 VPS 上体感差异很明显。
背后的设计思路:侧车模式(Sidecar Pattern)
简单说就是"按需初始化"。插件的核心功能(消息收发)用轻量级运行时,需要时才加载重型组件(UI、数据可视化)。不是拆掉功能,是让加载顺序更聪明。
CLI Doctor 也被优化了
openclaw doctor 的非交互模式运行时间减少了约 74%。原理类似:懒加载 doctor 的插件路径,优先用已安装插件的 dist/* 构建产物而不是每次都从源码重新解析。这个对 CI/CD 场景特别有价值。
安全修复:密集但容易被忽略
安全相关的改动在这个版本里很多,有些看起来是"小修小补",但组合起来防御效果不错。
外部内容 token 清洗
最大的改动是对外部内容做 token 边界过滤,涉及:Qwen/ChatML、Llama、Gemma、Mistral、Phi、GPT-OSS。
这是防御提示词注入(Prompt Injection)的攻击思路:如果外部内容里包含特殊 token,攻击者可能利用这一点"偷渡"指令。清洗后这些 token 被剥离,不会影响模型的指令边界。
MCP 循环保护
MCP(Model Context Protocol)子进程之前有个漏洞:非 owner 的进程可以通过伪造请求元数据拿到 owner 权限。新版改了验证逻辑——权限现在基于"实际持有的 bearer token"而非请求头里的 owner 标识。这个修复比较底层,普通用户感知不到,但确实堵住了一个提权路径。
SSRF 防护扩展
SSRF(Server-Side Request Forgery)防护之前主要覆盖少数几个频道,这个版本扩展到了 LINE、Synology Chat、Tlon uploads。媒体 URL 在发出去之前会先过一遍"公网地址检查",内网地址会被拦截。这块在 2026.4.20 就开始做了,21 继续扩大覆盖范围。
Exec allowlist 增强
Heredoc 里的 POSIX 参数展开形式($VAR、$?、$$、$1、$@)之前可以通过 allowlist 检查,现在会被直接拒绝。这个加固比较直接,但挺重要——这类展开形式容易被用来绕过命令限制。
新技能 Workshop:这个方向有意思
openclaw skills 生态新增了 Skill Workshop 插件。官方描述是"捕获可复用的工作流修正,自动或手动转换为 workspace skill,通过阈值审核机制保证质量"。
说人话:你跟 AI 一起工作时遇到的"踩坑记录",以前只能靠脑子记住,现在可以自动沉淀成可复用的技能。下次遇到类似场景,AI 会自己调用。
这个方向的价值在于:技能不再是手动安装的静态文件,而是从实际工作流里自然生长出来的。阈值审核机制保证质量,避免什么乱七八糟的东西都沉淀进去。
不过这个功能还在发展中,Skill Workshop 本身的稳定性还需要时间验证。
模型支持:跟上节奏
这版本模型相关的更新比较杂,拣几个重要的说:
Fireworks AI 新增 Kimi K2.6
路径是 fireworks/accounts/fireworks/models/kimi-k2p6,进入了捆绑目录。值得注意的是这个模型的 Kimi Thinking 功能是关闭的——可能是稳定性考虑,Fireworks 那边的对接还在调。
OpenAI 图片生成切换到 GPT Image 2
默认 provider 和测试都切换到 gpt-image-2,支持 2K 和 4K 分辨率。如果你用 OpenAI 的图片生成功能,这个切换会影响你的输出规格,需要注意。
GitHub Copilot Opus 模型升级
从 claude-opus-4.6 切到 claude-opus-4.7。不是 Copilot 换了模型,是背后调用的 Claude 版本升了——因为 GitHub 取消了对 4.6 的支持。这个对普通用户无感,但如果你的工作流依赖 Opus 4.6 的特定行为,需要注意。
Ollama 图像理解修复
之前 ollama/qwen2.5vl:7b 这类模型在图像处理时会报"unknown model"错误,现在修复了。如果你用 Ollama 做本地模型部署,这个改动应该算是"终于能跑了"级别的修复。
2026.4.20 的内务整理
2026.4.21 之前还有个 2026.4.20,主要做了一些"打补丁"的工作:
Onboard 向导重新设计:安全免责声明从灰色文本改成黄色警告横幅 + 清单样式,重要信息更容易扫到。模型目录加载加了 loading spinner,不再假死。
默认模型切换:Moonshot/Kimi 默认从
kimi-k2.5切到kimi-k2.6。K2.6 支持thinking.keep = "all"保留完整思考过程——但仅限 K2.6,其他 Moonshot 模型会剥离这个参数。Sessions 维护默认开启:entry 上限和过期清理从"可选"变成"默认"。启动时会主动修剪过大的 store,防止 cron/executor 堆积把网关 OOM 掉。
Cron 状态分离:
jobs.json和jobs-state.json分开,git 追踪任务定义更干净。
升级建议
通过 npm(推荐方式):
npm install -g openclaw@latest
openclaw --versionDocker 用户:
官方预构建镜像是 ghcr.io/openclaw/openclaw:latest,但完整流程需要跑 ./scripts/docker/setup.sh,不是简单的 docker run。参考官方 Docker 文档。
升级前跑一下 openclaw doctor 检查各 channel 连接是否正常。
局限性
没有版本是完美的,2026.4.21 也不例外:
Skill Workshop 还需要时间验证:新功能,功能完整性和稳定性还在打磨
Discord 的 98% 加速需要真实使用才能感知:如果你的 Discord 使用频率不高,感知不强
GPT Image 2 切换可能影响现有工作流:如果你依赖旧的 gpt-image-1 输出格式需要注意
总结
2026.4.21 是一个"内功深厚"的版本:
启动速度:Discord -98%、Telegram -14s、Matrix -1.8s,资源受限环境感知最明显
安全修复:token 清洗、MCP 循环保护、SSRF 防护扩展、exec allowlist 增强,防御深度提升了
技能生态:Skill Workshop 上线,技能从工作流中自然生长
模型支持:跟上主流,Kimi K2.6、GPT Image 2、Copilot 4.7 都进了捆绑目录
如果你是深度用户,对启动速度和安全有要求,这个版本值得升级。
技术没有捷径,但有方向