算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南

The Redefine Team Lv5

🚀 算力云边协同:打造私有长记忆 AI 智能体

架构核心逻辑

本项目实现了一种**“云端入口 + 边缘算力”**的混合架构。利用 Oracle ARM 服务器的公网固定 IP 作为 OpenClaw 网关,通过加密隧道调用本地 RTX 3060 (12GB) 运行的 Qwen3:8B 模型。

云端 (Oracle):负责 流量转发 与 用户界面,无需消耗昂贵的显存。

本地 (Edge):负责 核心推理,利用 3060 的 12G 显存支撑 32k 超长上下文。

边缘算力端配置 (Windows/Linux + RTX 3060)

获取并运行 Qwen3 模型 (Get and Run the Qwen3 Model)

此方案的核心是 Qwen3:8B 模型。你需要通过 Ollama 在本地运行它。

  1. 安装 Ollama
    如果你的本地机器还未安装 Ollama,请访问 Ollama 官网 下载并安装。

  2. 下载 Qwen3:8B 模型
    打开终端或命令行,执行以下指令来下载模型。此模型大小约 4.7GB,请耐心等待。

    1
    ollama pull qwen3:8b
  3. 验证模型
    下载完成后,可以运行以下命令与模型直接交互,以确保其正常工作。

    1
    ollama run qwen3:8b

    输入你的问题,如果模型有回复,则表示本地模型已准备就绪。按 /bye 退出交互。

Ollama 环境调优

为了让 Qwen3:8B 能够处理长对话并消除 OpenClaw 的警告,必须手动配置环境变量:

OLLAMA_HOST: 0.0.0.0 (允许穿透连接)

OLLAMA_NUM_CTX: 32768 (核心参数:预设 32k 记忆窗口)

操作提示:修改环境变量后,必须彻底重启 Ollama 进程。

frpc 安全隧道配置

避开易受干扰的默认端口,启用 TLS 加密 伪装流量。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# frpc.toml
serverAddr = "<ORACLE_PUBLIC_IP>"
serverPort = 443 # 伪装成 HTTPS 端口
auth.token = "<YOUR_SECURE_TOKEN>"

[transport]
tls.enable = true
tls.serverName = "<ORACLE_PUBLIC_IP>"

[[proxies]]
name = "ollama_tunnel"
type = "tcp"
localIP = "127.0.0.1"
localPort = 11434
remotePort = 11434
transport.useKeepalive = true # 防止推理期间连接被断开

云端网关配置 (Oracle ARM)

开放安全策略

在 甲骨文云 VCN 安全性列表 中,确保以下端口已放行入站:

  • TCP 443 (frp 通信)
  • TCP 11434 (模型 API)
  • TCP 3000 (OpenClaw Web 访问)

Docker 混合部署

在甲骨文端仅部署网关容器,通过 extra_hosts 引导流量。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# docker-compose.yml
services:
openclaw-gateway:
container_name: openclaw-gateway
image: openclaw/gateway:latest
restart: always
extra_hosts:
- "host.docker.internal:host-gateway"
environment:
# 信任代理列表,解决 Local Client Detection 警告
- GATEWAY_TRUSTED_PROXIES=127.0.0.1,172.16.0.0/12,10.0.0.0/8
volumes:
- ./config.json:/app/config.json:ro
ports:
- "3000:3000"

OpenClaw 应用调优 (config.json)

这是确保 Qwen3 工具调用与推理稳定的关键配置文件。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
{
"gateway": {
"port": 3000,
"trustedProxies": ["127.0.0.1", "172.16.0.0/12", "10.0.0.0/8"]
},
"apiTimeout": 300000, // 延长至 5 分钟防止超时
"apiUrl": "http://host.docker.internal:11434",
"agentModel": "qwen3:8b", // 确认模型名称正确
"options": {
"num_ctx": 32768, // 32k 窗口,消除 low context 警告
"num_predict": 2048, // 给推理过程留足余量
"temperature": 0.6, // R1/Qwen3 推荐的平衡温度
"repeat_penalty": 1.1
},
"enable_stream": true // 必须开启流式传输,防止断连
}

纯本地部署模式 (Local-Only Deployment)

如果你的算力设备 (例如带 GPU 的 PC) 拥有公网 IP,或者你只希望在局域网内访问,可以采用纯本地部署,无需 Oracle ARM 和 frp 隧道。此模式更为简单直接。

Docker-Compose 配置 (本地)

在这种模式下,OpenClaw 和 Ollama 位于同一台机器。为了让 Docker 容器能直接访问宿主机上运行的 Ollama 服务,推荐使用 host 网络模式。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# docker-compose.local.yml
services:
openclaw-local:
container_name: openclaw-local
image: openclaw/gateway:latest
restart: always
# 使用 host 网络模式,容器直接共享宿主机的网络
network_mode: "host"
environment:
# 信任来自本机的代理请求
- GATEWAY_TRUSTED_PROXIES=127.0.0.1
volumes:
# 挂载本地专用的配置文件
- ./config.local.json:/app/config.json:ro

注意network_mode: "host" 会让容器直接使用主机的端口,因此 config.local.json 中配置的 port (例如 3000) 不能被主机上其他应用占用。

OpenClaw 配置 (本地)

本地模式的 config.json 关键在于将 apiUrl 指向本地 Ollama 实例。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
{
"gateway": {
"port": 3000,
"trustedProxies": ["127.0.0.1"]
},
"apiTimeout": 300000,
"apiUrl": "http://127.0.0.1:11434", // 直接访问本地运行的 Ollama
"agentModel": "qwen3:8b",
"options": {
"num_ctx": 32768,
"num_predict": 2048,
"temperature": 0.6,
"repeat_penalty": 1.1
},
"enable_stream": true
}

通过以上配置,你可以省去云端服务器和 frp 的复杂设置,一键在本地启动完整的 OpenClaw 服务。

服务管理指令 (Service Management Commands)

本部署方案基于 Docker,因此服务的管理主要通过 docker-compose 命令完成。以下是一些常用指令:

启动服务

docker-compose.yml 文件所在目录执行,启动 OpenClaw 网关。

1
docker-compose up -d

停止服务

停止并移除容器。

1
docker-compose down

重启服务

当你修改了 config.json (例如更换模型) 或需要重启应用时,使用此命令。

1
docker-compose restart openclaw-gateway

对于本地部署模式,则是:

1
docker-compose -f docker-compose.local.yml restart openclaw-local

查看日志

实时查看 OpenClaw 网关的日志,有助于排查问题。

1
docker-compose logs -f openclaw-gateway

对于本地部署模式,则是:

1
docker-compose -f docker-compose.local.yml logs -f openclaw-local

如何更换模型?

如上所述,更换模型需要两步:

  1. 编辑配置文件:打开 config.json (或 config.local.json),修改 agentModel 字段为你本地 Ollama 已有的模型名称,例如 "agentModel": "llama3:8b"
  2. 重启服务:执行 docker-compose restart 命令让配置生效。

常见问题排查 (Troubleshooting)

⚠️ AbortError (请求中断)

原因:模型思考时间过长,触发了 Node.js 或 frp 的超时。

解决:确保 frpc 开启了 Keepalive,并在 OpenClaw 中将 Stream 设为开启状态。

⚠️ Context Window 爆表 (610%+)

原因:长对话累积的历史记录超过了 32k 限制。

解决:手动点击 OpenClaw 界面上的 Clear Session。定期清理历史是保证 8B 模型逻辑不混乱的最佳实践。

⚠️ Proxy Headers 警告

原因:请求经过多层转发,IP 地址未被识别。

解决:检查 config.json 中的 trustedProxies 是否包含了容器所在的子网段(通常是 172.x.x.x)。

总结

通过本方案,你成功将 RTX 3060 的本地算力释放到了公网。Qwen3:8B 在 32k 窗口下具备强大的 Reasoning 推理能力和工具调用潜力,这套云边协同架构是目前性价比极高的私有大模型部署方案。

  • 标题: 算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南
  • 作者: The Redefine Team
  • 创建于 : 2026-02-01 18:30:00
  • 更新于 : 2026-02-01 18:17:14
  • 链接: https://redefine.ohevan.com/2026/02/01/算力云边协同:Oracle ARM + RTX 3060 部署 OpenClaw & Qwen3 深度指南/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论