
前言 #
2026 年 3 月 13 日,OpenClaw 发布了 2026.3.12 版本(Commit: 85377a2)。
这个版本带来了多个重磅功能:
- Kubernetes 部署支持 - 企业级容器化部署方案
- Fast Mode 加速 - OpenAI/Claude 响应速度提升
- Control UI v2 - 全新的 Web 仪表盘
- 插件架构升级 - Ollama/vLLM/SGLang 模块化
本文将深度解析这些新特性,并提供实战教程。
一、Kubernetes 部署支持(企业级) #
背景 #
此前 OpenClaw 主要支持单机部署(npm/pnpm/Docker),不适合大规模生产环境。
2026.3.12 版本新增了 Kubernetes 原生部署支持,包括:
- Raw Kubernetes Manifests
- Kind(Kubernetes in Docker)快速测试环境
- 完整的部署文档
适用场景 #
| 场景 | 推荐方案 |
|---|---|
| 个人使用 | npm/单容器 Docker |
| 小团队(<10 人) | Docker Compose |
| 企业生产 | Kubernetes |
快速开始(Kind 测试环境) #
# 1. 安装 Kind
curl -Lo ./kind https://kind.sigs.k8s.io/dl/v0.20.0/kind-linux-amd64
chmod +x ./kind
sudo mv ./kind /usr/local/bin/kind
# 2. 创建测试集群
kind create cluster --name openclaw
# 3. 部署 OpenClaw
kubectl apply -f https://raw.githubusercontent.com/openclaw/openclaw/main/k8s/deployment.yaml
# 4. 访问服务
kubectl port-forward svc/openclaw-gateway 18789:18789生产部署要点 #
# deployment.yaml 核心配置
apiVersion: apps/v1
kind: Deployment
metadata:
name: openclaw-gateway
spec:
replicas: 3 # 高可用,至少 3 副本
selector:
matchLabels:
app: openclaw-gateway
template:
spec:
containers:
- name: gateway
image: openclaw/gateway:2026.3.12
ports:
- containerPort: 18789
env:
- name: OPENCLAW_WORKSPACE
value: /workspace
volumeMounts:
- name: workspace
mountPath: /workspace
- name: config
mountPath: /config
readOnly: true
volumes:
- name: workspace
persistentVolumeClaim:
claimName: openclaw-workspace-pvc
- name: config
secret:
secretName: openclaw-config配置管理(Secret) #
# 创建 Secret(存储 API Key 等敏感信息)
kubectl create secret generic openclaw-config \
--from-literal=models.json='{"providers":{...}}' \
--from-literal=openclaw.json='{"channel":{...}}'持久化存储 #
# pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: openclaw-workspace-pvc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 10Gi # 根据记忆系统和日志大小调整
storageClassName: standard二、Fast Mode 加速(响应速度提升 50%) #
什么是 Fast Mode? #
Fast Mode 是 OpenAI 和 Anthropic 推出的低成本、低延迟推理模式。
特点:
- 响应速度提升 30-50%
- 成本降低 50-70%
- 适合简单任务(代码生成、日常问答)
OpenClaw 2026.3.12 的 Fast Mode 支持 #
1. OpenAI/GPT-5.4 Fast Mode #
// models.json 配置
{
"providers": {
"openai": {
"models": [
{
"id": "gpt-5.4-fast",
"name": "GPT-5.4 Fast",
"fastMode": true,
"cost": {
"input": 0.001, // 比标准模式便宜 60%
"output": 0.003
}
}
]
}
}
}使用方式:
# CLI 使用 --fast 参数
openclaw agent --message "写个备份脚本" --fast
# TUI 中使用 /fast 命令
/fast 解释 Kubernetes 的 Pod 概念
# Control UI 中点击 Fast Mode 开关2. Anthropic/Claude Fast Mode #
{
"providers": {
"anthropic": {
"models": [
{
"id": "claude-sonnet-4-fast",
"name": "Claude Sonnet 4 Fast",
"fastMode": true,
"service_tier": "fast" // 直接映射到 Anthropic API
}
]
}
}
}性能对比 #
| 模式 | 首 Token 延迟 | 成本 | 适用场景 |
|---|---|---|---|
| 标准 | 800-1200ms | 100% | 复杂推理、代码审查 |
| Fast | 300-500ms | 40% | 日常问答、简单代码 |
最佳实践 #
# 按任务类型自动选择模式
简单任务 → Fast Mode(/fast 或 --fast)
复杂任务 → Standard Mode(默认)
代码审查 → Standard Mode(需要深度推理)
日常聊天 → Fast Mode三、Control UI v2(全新 Web 仪表盘) #
新特性 #
2026.3.12 版本重构了 Web 仪表盘,带来模块化设计:
1. 模块化视图 #
| 模块 | 功能 |
|---|---|
| Overview | 网关状态、资源使用、活跃会话 |
| Chat | 实时对话、历史记录、导出 |
| Config | 模型配置、渠道设置、技能管理 |
| Agent | 子任务监控、任务队列 |
| Session | 会话管理、Token 统计 |
2. 命令面板(Command Palette) #
Ctrl+K / Cmd+K 唤起命令面板:
- /send - 发送消息
- /session - 切换会话
- /config - 打开配置
- /export - 导出聊天记录
- /models - 切换模型3. 移动端优化 #
- 底部标签栏导航
- 触摸友好的大按钮
- 响应式布局
4. 聊天增强功能 #
- Slash Commands -
/help、/models、/export - 搜索 - 全文搜索历史消息
- 导出 - 导出为 Markdown/PDF
- 置顶消息 - 重要消息置顶
访问方式 #
# 默认地址
http://localhost:18789
# 远程访问(需配置 CORS)
http://your-server-ip:18789
# HTTPS(推荐生产环境)
https://your-domain.com四、插件架构升级(Ollama/vLLM/SGLang 模块化) #
背景 #
此前,Ollama、vLLM、SGLang 等本地模型提供商硬编码在核心代码中。
2026.3.12 版本将它们迁移到插件架构,带来:
- 更灵活的扩展性
- 独立的版本迭代
- 降低核心代码复杂度
插件化后的优势 #
核心代码 ←→ 插件接口 ←→ 提供商插件
↓
- Ollama Plugin
- vLLM Plugin
- SGLang Plugin
- 更多...安装本地模型插件 #
# 安装 Ollama 插件
openclaw plugin install ollama
# 安装 vLLM 插件
openclaw plugin install vllm
# 查看已安装插件
openclaw plugin list配置本地模型 #
// models.json
{
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"models": [
{
"id": "llama3.1:8b",
"name": "Llama 3.1 8B",
"contextWindow": 8192
},
{
"id": "qwen2.5:72b",
"name": "Qwen 2.5 72B",
"contextWindow": 32768
}
]
}
}
}五、安全更新(重要) #
1. 设备配对使用短期 Token #
问题: 此前 /pair 和 QR 配对使用长期凭证,存在泄露风险。
修复: 改用短期 Bootstrap Token,配对后立即失效。
# 旧方式(不安全)
openclaw pair --token "sk-长期凭证..."
# 新方式(安全)
openclaw pair --token "bootstrap-短期凭证..." # 5 分钟后失效2. 禁用工作区插件自动加载 #
问题: 克隆的仓库可能包含恶意插件代码,自动加载存在风险。
修复: 需要显式信任才能加载工作区插件。
# 首次加载工作区插件时会提示
⚠️ 检测到工作区插件,是否信任并加载?
[y/N] y # 需要手动确认六、其他改进 #
1. Subagents sessions_yield #
功能: 编排器可以立即结束当前回合,跳过队列中的工具调用。
用途: 多智能体协作时,避免不必要的等待。
2. Slack Block Kit 支持 #
功能: Agent 可以通过 Slack 发送富文本消息(卡片、按钮等)。
配置:
{
"channel": {
"slack": {
"blocks": true // 启用 Block Kit
}
}
}3. 模型选择器持久化 #
功能: Telegram 等渠道的模型选择会记住用户的选择。
七、升级指南 #
从旧版本升级 #
# npm 安装
npm install -g openclaw@latest
# pnpm 安装
pnpm add -g openclaw@latest
# 检查版本
openclaw version
# 应显示:2026.3.12
# 运行健康检查
openclaw doctor升级后检查清单 #
- 验证网关正常启动
- 测试消息发送
- 检查模型配置
- 验证渠道连接
- 备份工作区(可选但推荐)
八、性能基准测试 #
响应速度对比(2026.3.1 vs 2026.3.12) #
| 任务 | 2026.3.1 | 2026.3.12 (Fast) | 提升 |
|---|---|---|---|
| 简单问答 | 1.2s | 0.5s | 58% |
| 代码生成 | 3.5s | 1.8s | 49% |
| 文档总结 | 5.8s | 3.2s | 45% |
资源占用(Kubernetes 部署) #
| 组件 | CPU | 内存 | 存储 |
|---|---|---|---|
| Gateway Pod | 0.5 核 | 512MB | - |
| Workspace PVC | - | - | 10GB |
| 3 副本总计 | 1.5 核 | 1.5GB | 10GB |
总结 #
核心亮点 #
- Kubernetes 部署 - 企业级生产环境支持
- Fast Mode - 响应速度提升 50%,成本降低 60%
- Control UI v2 - 模块化仪表盘,移动端优化
- 插件架构 - Ollama/vLLM/SGLang 模块化
- 安全增强 - 短期 Token、插件信任机制
升级建议 #
| 用户类型 | 建议 |
|---|---|
| 个人用户 | 必升级(Fast Mode 真香) |
| 小团队 | 必升级(Control UI v2 协作友好) |
| 企业用户 | 必升级(K8s 部署 + 安全修复) |
下一步计划 #
根据 Roadmap,后续版本可能会带来:
- 更多模型提供商插件
- Control UI 主题系统
- 多网关负载均衡
- 离线模式支持
OpenClaw 正在快速进化。 从单机工具到企业级平台,这个版本迈出了关键一步。对于运维和开发团队来说,现在是部署个人 AI 助理的最佳时机。