相比手动安装 Node.js、配置环境、逐步部署的方式,腾讯云应用镜像方案省掉了所有中间步骤。买服务器的时候直接选 OpenClaw 镜像,开机之后环境和程序都已经装好,直接访问控制台配置就行。对新手来说,这是目前上手最快的方案。
一、准备工作
需要准备三样东西:腾讯云账号、一台云服务器、AI 模型的 API Key。
API Key 可以在购买服务器之前准备好。推荐用 OpenRouter,一个 Key 能接 400 多个模型,不用每个平台单独注册。进入 openrouter.ai 注册账号,在 API Keys 页面生成一个 Key,记下来备用。
二、购买服务器
登录腾讯云控制台,进入轻量应用服务器,点击创建实例。
配置选择:
| 项目 | 推荐选择 |
|---|---|
| 镜像类型 | 应用镜像 |
| 镜像 | OpenClaw |
| CPU/内存 | 2核2GB(个人使用)/ 2核4GB(稳定运行) |
| 地域 | 新加坡 / 硅谷 / 东京 |
| 带宽 | 3Mbps 以上 |
地域选新加坡、硅谷或东京,这三个节点访问 OpenAI、Claude、OpenRouter 等海外 API 延迟低、稳定性好,不容易超时。国内节点调用海外 API 容易出问题,不建议选。
价格参考:2核2GB约 ¥30-60/月,2核4GB约 ¥60-100/月,新用户通常有折扣。
点击立即购买,完成支付。服务器通常在 1 到 2 分钟内开通,在实例列表里能看到公网 IP。
三、访问 OpenClaw 控制台
服务器启动之后,OpenClaw 已经自动运行,不需要任何额外操作。
打开浏览器,访问:
http://你的服务器IP:18789
如果页面打不开,进入腾讯云控制台检查防火墙设置。
四、开放防火墙端口
在轻量服务器控制台,找到"防火墙"设置,添加入站规则:
协议:TCP
端口:18789
来源:0.0.0.0/0
保存后重新访问控制台地址,应该可以正常打开了。
五、配置 AI 模型
进入 OpenClaw 后台,找到模型配置页面,填入 API 信息:
API Base URL:https://openrouter.ai/api/v1
API Key:你的 OpenRouter Key
默认模型:minimax/minimax-01
建议先设置一个便宜的入门模型作为默认,日常任务走这个模型,需要更强能力的时候再切换到高端模型,能控制 API 成本。
保存后点击测试连接,确认 API 调通。
六、配置消息渠道
OpenClaw 支持通过 Telegram、飞书、钉钉、企业微信接收指令和推送通知。以 Telegram 为例:
在 Telegram 搜索 BotFather,发送 /newbot,按提示设置 Bot 名称,完成后会收到一串 Token:
1234567890:ABCdefGHIjklMNOpqrSTUvwxYZ
回到 OpenClaw 后台,在渠道配置里找到 Telegram,粘贴 Token,保存。
找到刚建的 Bot,发送 /start,收到回复说明接入成功。之后可以直接在手机 Telegram 里给 AI 下指令。
七、确认服务自动重启
应用镜像通常已经配置好了开机自启,但确认一下更保险。登录服务器(控制台点"登录"或本地 SSH 连接),检查服务状态:
systemctl status openclaw
如果看到 active (running) 说明服务正常,开机自启也已配置。
如果服务没有运行,手动启动:
systemctl start openclaw
systemctl enable openclaw
八、常见问题
访问后台显示无法连接,按顺序检查:防火墙规则是否开放 18789 端口、服务是否在运行(systemctl status openclaw)、IP 地址是否填对。
服务运行一段时间后变慢或崩溃,通常是内存不够。加 Swap 缓解:
fallocate -l 2G /swapfile
chmod 600 /swapfile
mkswap /swapfile
swapon /swapfile
echo '/swapfile none swap sw 0 0' >> /etc/fstab
更新 OpenClaw 到最新版本:
npm update -g openclaw
systemctl restart openclaw
查看运行日志排查问题:
journalctl -u openclaw -f
总结
腾讯云一键部署的流程三步:选 OpenClaw 应用镜像购买服务器、开放防火墙端口、访问控制台配置 API。全程不需要敲命令行,5分钟内可以完成。配合 OpenRouter 的多模型路由,用最低成本跑一个 24小时在线的 AI 助手,是目前国内用户上手最快的方案。