目标:
✅ 完全本地运行 AI Agent
✅ 不需要任何 API Key
✅ 0 成本运行 AI
✅ 支持 OpenClaw agent + tools + chat
一、最终架构
本教程部署完成后的架构:
User
↓
OpenClaw Agent
↓
OpenClaw Gateway
↓
Ollama API
↓
Qwen3 Model
↓
Local GPU / CPUOpenClaw 会调用 Ollama API 推理本地模型。
官方说明:
OpenClaw 的 Ollama provider 使用 /api/chat API 并支持流式和工具调用。 (docs.openclaw.ai)
二、硬件建议
不同模型需求不同。
推荐配置:
| 模型 | 最低配置 |
|---|---|
| Qwen3 7B | 16GB RAM |
| Qwen3 14B | 24GB RAM |
| Qwen3 30B | 48GB RAM |
| Qwen3 235B | 服务器级 |
Qwen3 是阿里发布的 最新 Qwen 系列大模型,提供多个规模版本。 (ollama.com)
推荐:
qwen3:14b性能和资源比较平衡。
三、安装 Ollama
1 安装
Linux / macOS
curl -fsSL https://ollama.ai/install.sh | shWindows
安装:
Ollama Desktop官网:
https://ollama.com2 启动 Ollama
ollama serve默认端口:
http://localhost:11434四、下载 Qwen3 模型
安装模型:
ollama pull qwen3:14b或者:
ollama pull qwen3:30b测试模型:
ollama run qwen3:14b如果出现:
>>> hello说明模型运行成功。
五、安装 OpenClaw
OpenClaw 是一个 本地 AI agent 框架,可以连接聊天应用并调用 AI 工具。 (docs.ollama.com)
安装:
curl -fsSL https://openclaw.ai/install.sh | bash安装完成后测试:
openclaw --help六、初始化 OpenClaw
运行初始化向导:
openclaw onboard选择:
model provider → ollama然后输入:
model name → qwen3:14b七、配置 OpenClaw 模型
打开配置文件:
~/.openclaw/openclaw.json写入:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3:14b"
}
}
}
}OpenClaw 的模型格式是:
provider/model例如:
ollama/qwen3:14b这是官方推荐配置方式。 (OpenClaw)
八、启动 OpenClaw
启动 gateway:
openclaw gateway start查看状态:
openclaw gateway status如果显示:
Gateway running说明系统正常。
九、测试 AI Agent
OpenClaw CLI:
openclaw chat输入:
帮我写一个 Python HTTP serverAI 会调用:
qwen3返回结果。
十、打开 Web 控制面板
运行:
openclaw dashboard浏览器打开:
http://localhost:18789可以:
- 查看 agent
- 查看日志
- 测试模型
- 调试 tools
十一、配置 Tools(推荐)
OpenClaw agent 可以调用工具。
例如:
filesystem
shell
web-search配置示例:
{
"agents": {
"assistant": {
"model": "ollama/qwen3:14b",
"skills": [
"filesystem",
"shell"
]
}
}
}AI 可以:
- 读文件
- 写代码
- 执行命令
十二、连接 Telegram(可选)
创建 bot:
@BotFather获取 token。
配置:
openclaw channels login telegram之后你可以在 Telegram 和 AI 对话。
十三、推荐模型
OpenClaw + Ollama 推荐:
| 用途 | 模型 |
|---|---|
| 通用助手 | qwen3:14b |
| 编程 | qwen3-coder:30b |
| 轻量 | qwen2.5:7b |
有专门优化版本:
openclaw-qwen3vl-8b专门用于 agent。 (Ollama)
十四、完整部署命令总结
从零部署:
# 安装 ollama
curl https://ollama.ai/install.sh | sh
# 启动
ollama serve
# 下载模型
ollama pull qwen3:14b
# 安装 openclaw
curl https://openclaw.ai/install.sh | bash
# 初始化
openclaw onboard
# 启动
openclaw gateway start
# 测试
openclaw chat十五、最终效果
部署完成后你得到:
一个 完全本地 AI agent:
- 本地推理
- 本地工具
- 本地数据
- 0 API 成本
本地 AI 的优势:
- 无 token 成本
- 数据不出设备
- 离线可运行
但缺点是:
- 推理速度较慢
- 模型能力略低
常见问题
模型无法连接
检查:
ollama listOpenClaw 报 Unknown model
检查:
ollama/qwen3:14b格式是否正确。
GPU 不工作
查看:
ollama ps