OpenClaw + Ollama + Qwen3 完整本地部署教程

目标:

完全本地运行 AI Agent
不需要任何 API Key
0 成本运行 AI
支持 OpenClaw agent + tools + chat

一、最终架构

本教程部署完成后的架构:

User
 ↓
OpenClaw Agent
 ↓
OpenClaw Gateway
 ↓
Ollama API
 ↓
Qwen3 Model
 ↓
Local GPU / CPU

OpenClaw 会调用 Ollama API 推理本地模型。

官方说明:
OpenClaw 的 Ollama provider 使用 /api/chat API 并支持流式和工具调用。 (docs.openclaw.ai)


二、硬件建议

不同模型需求不同。

推荐配置:

模型最低配置
Qwen3 7B16GB RAM
Qwen3 14B24GB RAM
Qwen3 30B48GB RAM
Qwen3 235B服务器级

Qwen3 是阿里发布的 最新 Qwen 系列大模型,提供多个规模版本。 (ollama.com)

推荐:

qwen3:14b

性能和资源比较平衡。


三、安装 Ollama

1 安装

Linux / macOS

curl -fsSL https://ollama.ai/install.sh | sh

Windows

安装:

Ollama Desktop

官网:

https://ollama.com

2 启动 Ollama

ollama serve

默认端口:

http://localhost:11434

四、下载 Qwen3 模型

安装模型:

ollama pull qwen3:14b

或者:

ollama pull qwen3:30b

测试模型:

ollama run qwen3:14b

如果出现:

>>> hello

说明模型运行成功。


五、安装 OpenClaw

OpenClaw 是一个 本地 AI agent 框架,可以连接聊天应用并调用 AI 工具。 (docs.ollama.com)

安装:

curl -fsSL https://openclaw.ai/install.sh | bash

安装完成后测试:

openclaw --help

六、初始化 OpenClaw

运行初始化向导:

openclaw onboard

选择:

model provider → ollama

然后输入:

model name → qwen3:14b

七、配置 OpenClaw 模型

打开配置文件:

~/.openclaw/openclaw.json

写入:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3:14b"
      }
    }
  }
}

OpenClaw 的模型格式是:

provider/model

例如:

ollama/qwen3:14b

这是官方推荐配置方式。 (OpenClaw)


八、启动 OpenClaw

启动 gateway:

openclaw gateway start

查看状态:

openclaw gateway status

如果显示:

Gateway running

说明系统正常。


九、测试 AI Agent

OpenClaw CLI:

openclaw chat

输入:

帮我写一个 Python HTTP server

AI 会调用:

qwen3

返回结果。


十、打开 Web 控制面板

运行:

openclaw dashboard

浏览器打开:

http://localhost:18789

可以:

  • 查看 agent
  • 查看日志
  • 测试模型
  • 调试 tools

十一、配置 Tools(推荐)

OpenClaw agent 可以调用工具。

例如:

filesystem
shell
web-search

配置示例:

{
  "agents": {
    "assistant": {
      "model": "ollama/qwen3:14b",
      "skills": [
        "filesystem",
        "shell"
      ]
    }
  }
}

AI 可以:

  • 读文件
  • 写代码
  • 执行命令

十二、连接 Telegram(可选)

创建 bot:

@BotFather

获取 token。

配置:

openclaw channels login telegram

之后你可以在 Telegram 和 AI 对话。


十三、推荐模型

OpenClaw + Ollama 推荐:

用途模型
通用助手qwen3:14b
编程qwen3-coder:30b
轻量qwen2.5:7b

有专门优化版本:

openclaw-qwen3vl-8b

专门用于 agent。 (Ollama)


十四、完整部署命令总结

从零部署:

# 安装 ollama
curl https://ollama.ai/install.sh | sh

# 启动
ollama serve

# 下载模型
ollama pull qwen3:14b

# 安装 openclaw
curl https://openclaw.ai/install.sh | bash

# 初始化
openclaw onboard

# 启动
openclaw gateway start

# 测试
openclaw chat

十五、最终效果

部署完成后你得到:

一个 完全本地 AI agent

  • 本地推理
  • 本地工具
  • 本地数据
  • 0 API 成本

本地 AI 的优势:

  • 无 token 成本
  • 数据不出设备
  • 离线可运行

但缺点是:

  • 推理速度较慢
  • 模型能力略低

常见问题

模型无法连接

检查:

ollama list

OpenClaw 报 Unknown model

检查:

ollama/qwen3:14b

格式是否正确。


GPU 不工作

查看:

ollama ps

添加新评论