算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南
🚀 算力云边协同:打造私有长记忆 AI 智能体
架构核心逻辑
本项目实现了一种**“云端入口 + 边缘算力”**的混合架构。利用 Oracle ARM 服务器的公网固定 IP 作为 OpenClaw 网关,通过加密隧道调用本地 RTX 3060 (12GB) 运行的 Qwen3:8B 模型。
云端 (Oracle):负责 流量转发 与 用户界面,无需消耗昂贵的显存。
本地 (Edge):负责 核心推理,利用 3060 的 12G 显存支撑 32k 超长上下文。
边缘算力端配置 (Windows/Linux + RTX 3060)
获取并运行 Qwen3 模型 (Get and Run the Qwen3 Model)
此方案的核心是 Qwen3:8B 模型。你需要通过 Ollama 在本地运行它。
安装 Ollama
如果你的本地机器还未安装 Ollama,请访问 Ollama 官网 下载并安装。下载 Qwen3:8B 模型
打开终端或命令行,执行以下指令来下载模型。此模型大小约 4.7GB,请耐心等待。1
ollama pull qwen3:8b
验证模型
下载完成后,可以运行以下命令与模型直接交互,以确保其正常工作。1
ollama run qwen3:8b
输入你的问题,如果模型有回复,则表示本地模型已准备就绪。按
/bye退出交互。
Ollama 环境调优
为了让 Qwen3:8B 能够处理长对话并消除 OpenClaw 的警告,必须手动配置环境变量:
OLLAMA_HOST: 0.0.0.0 (允许穿透连接)
OLLAMA_NUM_CTX: 32768 (核心参数:预设 32k 记忆窗口)
操作提示:修改环境变量后,必须彻底重启 Ollama 进程。
frpc 安全隧道配置
避开易受干扰的默认端口,启用 TLS 加密 伪装流量。
1 | # frpc.toml |
云端网关配置 (Oracle ARM)
开放安全策略
在 甲骨文云 VCN 安全性列表 中,确保以下端口已放行入站:
- TCP 443 (frp 通信)
- TCP 11434 (模型 API)
- TCP 3000 (OpenClaw Web 访问)
Docker 混合部署
在甲骨文端仅部署网关容器,通过 extra_hosts 引导流量。
1 | # docker-compose.yml |
OpenClaw 应用调优 (config.json)
这是确保 Qwen3 工具调用与推理稳定的关键配置文件。
1 | { |
纯本地部署模式 (Local-Only Deployment)
如果你的算力设备 (例如带 GPU 的 PC) 拥有公网 IP,或者你只希望在局域网内访问,可以采用纯本地部署,无需 Oracle ARM 和 frp 隧道。此模式更为简单直接。
Docker-Compose 配置 (本地)
在这种模式下,OpenClaw 和 Ollama 位于同一台机器。为了让 Docker 容器能直接访问宿主机上运行的 Ollama 服务,推荐使用 host 网络模式。
1 | # docker-compose.local.yml |
注意:network_mode: "host" 会让容器直接使用主机的端口,因此 config.local.json 中配置的 port (例如 3000) 不能被主机上其他应用占用。
OpenClaw 配置 (本地)
本地模式的 config.json 关键在于将 apiUrl 指向本地 Ollama 实例。
1 | { |
通过以上配置,你可以省去云端服务器和 frp 的复杂设置,一键在本地启动完整的 OpenClaw 服务。
服务管理指令 (Service Management Commands)
本部署方案基于 Docker,因此服务的管理主要通过 docker-compose 命令完成。以下是一些常用指令:
启动服务
在 docker-compose.yml 文件所在目录执行,启动 OpenClaw 网关。
1 | docker-compose up -d |
停止服务
停止并移除容器。
1 | docker-compose down |
重启服务
当你修改了 config.json (例如更换模型) 或需要重启应用时,使用此命令。
1 | docker-compose restart openclaw-gateway |
对于本地部署模式,则是:
1 | docker-compose -f docker-compose.local.yml restart openclaw-local |
查看日志
实时查看 OpenClaw 网关的日志,有助于排查问题。
1 | docker-compose logs -f openclaw-gateway |
对于本地部署模式,则是:
1 | docker-compose -f docker-compose.local.yml logs -f openclaw-local |
如何更换模型?
如上所述,更换模型需要两步:
- 编辑配置文件:打开
config.json(或config.local.json),修改agentModel字段为你本地 Ollama 已有的模型名称,例如"agentModel": "llama3:8b"。 - 重启服务:执行
docker-compose restart命令让配置生效。
常见问题排查 (Troubleshooting)
⚠️ AbortError (请求中断)
原因:模型思考时间过长,触发了 Node.js 或 frp 的超时。
解决:确保 frpc 开启了 Keepalive,并在 OpenClaw 中将 Stream 设为开启状态。
⚠️ Context Window 爆表 (610%+)
原因:长对话累积的历史记录超过了 32k 限制。
解决:手动点击 OpenClaw 界面上的 Clear Session。定期清理历史是保证 8B 模型逻辑不混乱的最佳实践。
⚠️ Proxy Headers 警告
原因:请求经过多层转发,IP 地址未被识别。
解决:检查 config.json 中的 trustedProxies 是否包含了容器所在的子网段(通常是 172.x.x.x)。
总结
通过本方案,你成功将 RTX 3060 的本地算力释放到了公网。Qwen3:8B 在 32k 窗口下具备强大的 Reasoning 推理能力和工具调用潜力,这套云边协同架构是目前性价比极高的私有大模型部署方案。
- 标题: 算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南
- 作者: The Redefine Team
- 创建于 : 2026-02-01 18:30:00
- 更新于 : 2026-02-01 18:17:14
- 链接: https://redefine.ohevan.com/2026/02/01/算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南/
- 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。