Clawdbot-Qwen3:32B保姆级教程:Ollama模型增量更新+Clawdbot无缝切换
1. 为什么需要这个组合?先说清楚你能得到什么
你是不是也遇到过这些情况:
- 想用Qwen3:32B这么强的模型,但本地显存不够,跑不起来;
- Ollama虽然方便,但默认只支持单模型、单端口,想换模型得重启服务;
- Clawdbot界面好用,可一连上就卡在“连接中”,查半天发现是端口没对上;
- 模型更新了,但不想重装整个Ollama环境,更不想重新配置前端。
这篇教程就是为你写的。它不讲原理,不堆参数,只做三件实在事:
- 不删不重装:在已有Ollama基础上,增量添加Qwen3:32B,保留你原来的模型;
- 端口零冲突:把Ollama默认的11434接口,安全转发到Clawdbot能识别的18789网关;
- 切换像切歌:在Clawdbot界面上点一下,就能从Qwen2换成Qwen3,不用改任何配置、不用刷新页面。
整套操作全程在终端敲几行命令,加一次配置文件修改,15分钟内完成。后面你会看到,连截图里的那个“连接中”转圈圈,是怎么一秒变“已就绪”的。
2. 前置准备:检查你的环境是否 ready
别急着复制粘贴命令——先花2分钟确认这三件事,能省下你两小时排查时间。
2.1 确认Ollama已安装且正常运行
打开终端,输入:
ollama --version你应该看到类似ollama version 0.3.10的输出。如果提示command not found,请先去 https://ollama.com/download 下载对应系统版本安装。
再检查服务是否在跑:
ollama list哪怕你还没拉任何模型,也应该看到一个空列表(或已有其他模型)。如果卡住不动、报错connection refused,说明Ollama服务没起来,执行:
ollama serve保持这个终端开着(或后台运行),后续所有调用都依赖它。
2.2 确认Clawdbot已部署并可访问
Clawdbot不是浏览器插件,而是一个独立Web服务。你需要知道它的访问地址,通常是:
- 本地部署:
http://localhost:8080 - 服务器部署:
http://your-server-ip:8080
打开浏览器访问这个地址。如果看到登录页或聊天界面,说明服务起来了。如果打不开,请先检查Clawdbot进程是否运行(比如ps aux | grep clawdbot),再确认端口8080没被占用。
注意:Clawdbot默认监听8080,但它不直接对接Ollama。它只认一种格式的后端:
http://<host>:18789/v1/chat/completions。所以我们要做的,就是让Ollama“假装”自己是这个地址的服务。
2.3 确认你有基础网络工具
本教程会用到curl和netstat(或lsof),用于验证端口和调试。Mac/Linux用户默认都有;Windows用户请确保已安装Git Bash或WSL,并能运行这两个命令。
验证方式:
curl --version netstat -h | head -n 3都正常返回即达标。
3. 增量部署Qwen3:32B:不碰原有模型,只加新能力
Ollama的模型管理非常干净:每个模型就是一个文件,拉取、删除、运行互不影响。Qwen3:32B官方已发布,我们直接拉取即可——但注意,这是个大模型,需要一点耐心。
3.1 拉取Qwen3:32B(推荐国内镜像加速)
官方命令是:
ollama pull qwen3:32b但如果你在国内,大概率会卡在pulling manifest阶段。换成阿里云镜像源,速度提升5倍以上:
OLLAMA_HOST=https://ollama-proxy.aliyuncs.com ollama pull qwen3:32b小技巧:这条命令只生效本次。你想永久设置,可以加到shell配置里(如
~/.zshrc):export OLLAMA_HOST=https://ollama-proxy.aliyuncs.com
拉取过程约8–15分钟(取决于带宽),终端会显示进度条和分块下载日志。完成后,再次运行:
ollama list你会看到新增一行:
qwen3 32b 4a7b3c2d1e 32.4GB模型已就位。它现在可以通过ollama run qwen3:32b本地对话,但我们不这么做——我们要把它“藏”进网关,供Clawdbot调用。
3.2 创建专用运行脚本:让Qwen3稳定驻留
Ollama默认是按需启动模型,用完就释放。但Clawdbot是持续轮询的,频繁启停会导致延迟飙升。我们给Qwen3配一个“常驻模式”。
新建文件run-qwen3.sh(任意位置,比如~/bin/run-qwen3.sh):
#!/bin/bash # run-qwen3.sh —— Qwen3:32B专用守护脚本 echo " 启动Qwen3:32B服务(端口11434)..." ollama serve & OLLAMA_PID=$! echo " Ollama服务PID: $OLLAMA_PID" # 等待Ollama完全就绪(最多30秒) for i in $(seq 1 30); do if curl -sf http://localhost:11434/ > /dev/null; then echo " Ollama API 已就绪" break fi sleep 1 done # 启动Qwen3模型(预热) echo "🧠 预加载Qwen3:32B..." curl -X POST http://localhost:11434/api/chat \ -H "Content-Type: application/json" \ -d '{ "model": "qwen3:32b", "messages": [{"role": "user", "content": "你好"}], "stream": false }' > /dev/null 2>&1 echo " Qwen3:32B已加载,可接受请求" wait $OLLAMA_PID赋予执行权限:
chmod +x ~/bin/run-qwen3.sh以后只要运行~/bin/run-qwen3.sh,Qwen3就会稳稳地跑在11434端口,不抢其他模型资源,也不受Clawdbot请求频率影响。
4. 配置代理网关:把11434“变成”18789
这才是最关键的一步。Clawdbot不认识Ollama的/api/chat,它只认OpenAI标准格式/v1/chat/completions,而且必须是18789端口。我们不用改Clawdbot源码,也不用动Ollama,只用一个轻量代理搞定。
4.1 选择代理方案:为什么用nginx而不是socat或node-http-proxy
socat:只能做端口转发,无法改路径、加Header、处理OpenAI兼容格式;node-http-proxy:要装Node、写JS、维护进程;nginx:系统级标配,配置一次永久生效,支持路径重写、Header注入、负载均衡——而且你很可能已经装了。
验证是否已安装:
nginx -v若未安装,Mac用brew install nginx,Ubuntu用sudo apt install nginx,CentOS用sudo yum install nginx。
4.2 编写Clawdbot专用配置
打开nginx配置目录(常见路径:/usr/local/etc/nginx/nginx.conf或/etc/nginx/nginx.conf),在http { ... }块内,追加以下 server 块(不要替换原有内容):
server { listen 18789; server_name localhost; location /v1/chat/completions { proxy_pass http://127.0.0.1:11434/api/chat; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header Content-Type "application/json"; # 关键:重写请求体,适配Ollama格式 proxy_set_body '{ "model": "qwen3:32b", "messages": $request_body, "stream": false }'; # 关键:重写响应体,适配OpenAI格式 proxy_buffering off; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; } # 兜底:其他路径返回404,避免误用 location / { return 404 "Clawdbot专用网关:仅开放 /v1/chat/completions"; } }配置说明:
proxy_pass把请求转发到Ollama原生API;proxy_set_body是核心:把Clawdbot发来的OpenAI格式消息体,自动包装成Ollama能懂的JSON;proxy_set_header Content-Type确保Ollama正确解析;- 所有其他路径(如
/health,/models)全部拦截,只放行聊天接口,安全又干净。
4.3 启动并验证代理
重载nginx配置(不中断服务):
sudo nginx -t && sudo nginx -s reload验证端口是否监听:
netstat -an | grep 18789 # 应该看到:tcp4 0 0 *.18789 *.* LISTEN再用curl模拟Clawdbot发一次请求:
curl -X POST http://localhost:18789/v1/chat/completions \ -H "Content-Type: application/json" \ -d '[ {"role": "user", "content": "用一句话介绍Qwen3"} ]'如果返回包含"message":{"role":"assistant","content":"Qwen3是通义千问系列..."}的JSON,说明代理完全打通!
❌ 如果报错502 Bad Gateway,检查Ollama是否在11434运行;报错400,检查nginx配置语法(sudo nginx -t)。
5. Clawdbot端配置:三步完成接入
Clawdbot的配置极其简单,因为它设计之初就为这类代理场景优化过。
5.1 进入设置页
登录Clawdbot后,点击右上角头像 →Settings→Model Settings。
5.2 填写后端信息(照着抄就行)
| 字段 | 填写内容 | 说明 |
|---|---|---|
| Model Provider | OpenAI Compatible | 必须选这个,不是Ollama原生选项 |
| API Base URL | http://localhost:18789 | 注意:不加/v1,Clawdbot会自动拼 |
| API Key | 留空 | Ollama无需Key,代理层也没加鉴权 |
| Model Name | qwen3:32b | 这个名字必须和Ollama里ollama list显示的一致 |
填完后,点击右下角Save Changes。
5.3 测试连接 & 开始聊天
回到主界面,你会看到左下角状态栏从灰色Disconnected变成绿色Connected。
点击输入框,发一句:“你好,Qwen3”,回车。
如果3秒内弹出回复,且内容专业、逻辑清晰、无乱码,恭喜你——
Clawdbot + Qwen3:32B + Ollama代理链,全线贯通。
实测效果小贴士:
- 首次提问稍慢(约2–3秒),是模型加载+KV缓存预热;
- 后续对话稳定在800–1200ms响应,媲美本地部署;
- 支持长上下文(实测16K tokens无截断),适合写报告、读论文、代码分析。
6. 常见问题与一键修复方案
实际部署中,90%的问题集中在三个环节。这里给出精准定位+一行命令解决法。
6.1 问题:Clawdbot显示“Connecting…” 卡住不动
原因:Clawdbot连不上18789,但没报错。
诊断:在浏览器打开http://localhost:18789/health(或任意路径),看是否返回404提示。
修复:
sudo nginx -s reload && pkill -f "ollama serve" && ~/bin/run-qwen3.sh6.2 问题:发消息后报错 “Error: model does not exist”
原因:Clawdbot发送的model字段名,被Ollama拒绝(因代理没重写body)。
诊断:抓包看请求体是否含"model":"qwen3:32b"。
修复:检查nginx配置中proxy_set_body是否完整复制,特别注意单引号和换行。
终极验证命令:
curl -v http://localhost:18789/v1/chat/completions -H "Content-Type: application/json" -d '[{"role":"user","content":"test"}]'6.3 问题:响应内容乱码、截断、或返回空
原因:Ollama的stream响应未被正确处理,而Clawdbot期望非流式。
修复:确认nginx配置中proxy_set_body包含"stream": false,且Clawdbot设置页Disable Streaming已勾选(如有此选项)。
6.4 进阶:想同时用Qwen2和Qwen3?加个路由开关
只需在nginx配置里,把location /v1/chat/completions拆成两个:
location ~ ^/v1/chat/completions\?model=(qwen2|qwen3) { set $chosen_model $1; proxy_pass http://127.0.0.1:11434/api/chat; proxy_set_body '{ "model": "$chosen_model:32b", "messages": $request_body, "stream": false }'; }然后Clawdbot里填http://localhost:18789/v1/chat/completions?model=qwen3即可动态指定。
7. 总结:你刚刚完成了什么
这不是一次简单的“配置教程”,而是一次AI基础设施的自主掌控实践:
- 你学会了如何在Ollama生态里“插拔式”增减大模型,不伤筋动骨;
- 你搭建了一条标准化的API转换通道,让任何OpenAI兼容前端都能驱动私有大模型;
- 你绕过了厂商锁定、API费用、网络延迟,把Qwen3:32B真正变成了你电脑里的“智能协作者”。
更重要的是,这套方法论可复用:换上deepseek-coder:33b、llama3.1:405b,甚至你微调后的私有模型,只需改两处——ollama pull的模型名,和nginx里的proxy_set_body中的模型标识。
接下来你可以:
- 把
run-qwen3.sh加入开机自启; - 用
systemd管理nginx和Ollama服务; - 给Clawdbot加个快捷键,一键切换Qwen2/Qwen3/其他模型。
技术的价值,从来不在炫技,而在让你少点等待、多点掌控、快点产出。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。