news 2026/4/3 5:57:29

用聊天工具当遥控器:我把最近爆火的 ClawdBot 搭起来了,5分钟让你学会(附完整可用配置)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
用聊天工具当遥控器:我把最近爆火的 ClawdBot 搭起来了,5分钟让你学会(附完整可用配置)

注意:如果你是搜“Clawdbot”找到这篇文章的,请注意——这个项目现在叫 Moltbot。因为Anthropic认为Clawdbot商标侵权,所以创始人被迫改名,就是现在的moltbot-龙虾蜕皮机器人

1.安装前你需要

项目说明
服务器最好国外的,省的折腾网络
聊天账号对接bot(我只用了tg,官方支持WhatsApp、Telegram、Slack、Discord等等)
大模型 api需要一个大模型接口,我使用了智谱glm4.7,开了编程套餐。还有3张7天体验卡,有需要的留言送你https://www.bigmodel.cn/glm-coding?ic=XODGYIKX4X

2.开始安装

虽然moltbot有多种安装方式,这里只介绍官方的一键安装,非常方便:

官方提供的快速安装命令,会自动处理依赖和权限问题:

# 执行一键安装脚本curl -fsSL https://molt.bot/install.sh | bash

这个脚本会:

  • • 安装 Node.js
  • • 全局安装 clawdbot
  • • 模型/身份验证(推荐使用 OAuth)
  • • 网关设置
  • • 渠道(WhatsApp/Telegram/Discord/Mattermost(插件)/…)
  • • 配对默认值(安全 DM)
  • • 工作区引导 + 技能
  • • 可选后台服务

2.1.运行后你会看到它正在安装moltbot

2.2.开始配置,选yes就行了

2.3安装成功

3.配置

3.1.TG机器人申请

因为我使用的是Telegram,所以这里只讲解这个

首先在tg客户端搜索 @BotFather

输入:/newbot

会让你输入昵称

紧接着会让你输入id,需要唯一,并且以bot结尾

成功后它会发送一段HTTP API,等会配置moltbot会用到

888888888:AAEPknHa234yIdiTxomMLECNyidzUK-qfgk64

3.2.运行引导程序

clawdbot onboard

• 选yes- • 选手动启动

  • • 选模型,我选择的是智谱的,按要求填好key就行,再确认默认模型为Z.AI,你可以根据自己的情况配置大模型,如果要使用自定义的,请看下面3.3
  • • 接下来选择聊天工具,这里我选第一个TG,输入刚才的Telegram token
  • • 安装skill,可以先跳过
  • • 接下来在tg中给机器人发个消息,它会回复配对码,在服务器输入命令,就配对成功了。到这一步,你的贾维斯已就绪!
clawdbot pairing approve telegram 你的配对码

  • • 你还需要配置什么可以直接对它说,他会自己搞定

3.3.配置自定义api

如果你已经在引导中配置了大模型官方的api,还想再配置自定义的接口,例如一些中转站,可以直接告诉自己机器人你需要配置

也可以手动修改配置文件,使用OpenAI 兼容的格式:

cd ~/.clawdbot/clawdbot.json

修改下面的配置后写入,注意agents中也有配置模型名,别忘了改!

{ "agents": { "defaults": { "model": { "primary": "gemini/gemini-3-flash" // 👈 格式:provider/model_id }, "workspace": "/botdata" // 👈 你的工作目录 } }, "models": { "mode": "merge", "providers": { "gemini": { "baseUrl": "https://你的中转站API/v1", "apiKey": "你的实际API_KEY", // 👈 记得改这里 "api": "openai-completions", "models": [ { "id": "gemini-3-flash", "name": "gemini-3-flash" } ] } } }}

最后使用3.2中说的设置配对码,并重启

clawdbot pairing approve telegram 你的配对码[#重启](javascript:;)clawdbot gateway restart

4.使用体验

4.1远程操作服务器

有什么需要直接告诉我的顶级机器人,比如问它服务器的内存情况,docker容器情况,它会给你返回状态,想看个状态都不需要登陆服务器了。

4.2定时任务

它还可以自己创建定时任务,比如我想每天看服务器docker状态,只需要tg里告诉它:每天9点发送给我服务器docker容器的状态,和内存,硬盘的空间

这里服务器的时区不对,我就告诉他修改为北京时间,它就改好了,是不是非常方便

4.3获取新闻

告诉它:我要获取X上的关于moltbot的最新消息,它就会去搜索

返回结果

5.总结

moltbot/clawdbot安装还是非常简单的,使用体验也非常不错,用着用着真有那种冲动,它就是一个人,就像钢铁侠里的贾维斯,任何诉求都可以告诉它。

但是,问题也是存在的,首先就是它获取服务器的权限非常大,一旦出错后果是灾难性的。所以建议现在自己的闲置的服务器上玩玩。其次,从安全角度来说它也是不安全的,存在着隐私泄露的和易遭受攻击的风险。

目前来说,moltbot/clawdbot其实就是一个agent,只是它对接了多种聊天软件,可以实现手机上说一句话就帮我们完成任务的效果

有任何问题,欢迎进群交流

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/23 1:31:49

语音情感识别还能导出特征向量?科哥镜像隐藏功能揭秘

语音情感识别还能导出特征向量?科哥镜像隐藏功能揭秘 你有没有试过——上传一段语音,几秒后屏幕上跳出“😊 快乐(Happy),置信度85.3%”,然后就结束了? 你以为这就是全部&#xff1f…

作者头像 李华
网站建设 2026/4/1 10:53:31

Qwen3-0.6B性能优化指南,让推理速度提升3倍

Qwen3-0.6B性能优化指南,让推理速度提升3倍 1. 为什么需要性能优化:小模型的“快”与“准”平衡术 你有没有遇到过这样的场景:在开发一个轻量级信息抽取服务时,选了Qwen3-0.6B这个参数量适中、部署成本低的模型,结果…

作者头像 李华
网站建设 2026/3/27 17:13:21

Z-Image-Turbo性能表现如何?不同场景下真实测试

Z-Image-Turbo性能表现如何?不同场景下真实测试 阿里通义Z-Image-Turbo WebUI图像快速生成模型 二次开发构建by科哥 阿里通义Z-Image-Turbo WebUI图像快速生成模型 二次开发构建by科哥 1. 实测前的几个关键事实 在开始跑数据之前,得先说清楚我们测的是…

作者头像 李华
网站建设 2026/3/31 2:43:44

零基础搭建AI播客系统:GLM-TTS详细教程

零基础搭建AI播客系统:GLM-TTS详细教程 你是否想过,不用请配音员、不买专业设备,只用一段3秒人声就能生成自然流畅的播客语音?这不是未来科技——它就在这里。GLM-TTS是智谱开源的高质量文本转语音模型,由科哥完成Web…

作者头像 李华
网站建设 2026/4/3 2:45:26

Cesium实战:无需切片直接加载GeoTIFF影像的高效方案

1. 为什么需要直接加载GeoTIFF? 传统Cesium加载影像数据通常需要预先切片处理,这个过程就像把一张大地图切成无数小块拼图。虽然最终展示效果不错,但前期准备工作相当繁琐:需要配置GeoServer等GIS服务器,运行切片工具…

作者头像 李华
网站建设 2026/3/30 23:37:30

VibeVoice Pro流式语音调试:Wireshark抓包分析WebSocket音频流

VibeVoice Pro流式语音调试:Wireshark抓包分析WebSocket音频流 1. 为什么需要抓包分析流式语音? 你有没有遇到过这样的情况:VibeVoice Pro明明已经连上,API也调通了,但语音就是“卡在半路”——前端收不到音频数据&a…

作者头像 李华