1. 项目概述:从零部署你的专属AI助手
如果你对AI Agent(智能体)感兴趣,想拥有一个能24小时在线、不仅能聊天还能帮你执行任务、操控浏览器、生成图片的私人助手,但又觉得技术门槛太高、无从下手,那么你来对地方了。OpenClaw,这个在GitHub上拥有超过24万星标的开源项目,正是实现这个想法的绝佳工具。它本质上是一个自托管的AI Agent网关平台,你可以把它理解为一个“大脑”和“手脚”的结合体:它通过大模型API获得思考能力,并通过内置的丰富技能库,与外部世界(如你的电脑、各种消息应用)进行交互。
我花了一周时间,从零开始在本地和云服务器上部署、配置、调试OpenClaw,踩了不少坑,也总结了一套能让新手快速上手的完整流程。这篇指南将带你一步步走过整个过程,从环境准备、API选择、平台对接,到安全配置和进阶优化。无论你是Windows、macOS还是Linux用户,无论你是想本地玩玩还是部署到云端让它24小时待命,这篇文章都会给你最直接的答案和可复现的操作步骤。我们直接进入正题。
2. 核心思路与方案选型:为什么是OpenClaw?
在开始动手之前,我们先理清思路。市面上AI工具很多,为什么选择OpenClaw来自建?这背后有几个关键考量,也是我最终选定它的原因。
2.1 自托管 vs. 云服务:数据与控制的权衡
市面上的AI助手服务,如ChatGPT Plus、Claude Pro,提供了开箱即用的便利,但你的所有对话数据、文件上传记录都存储在服务提供商的服务器上。对于处理敏感信息、公司内部数据或个人隐私,这存在潜在风险。OpenClaw的核心优势在于“自托管”。这意味着整个AI助手的“大脑”(大模型API调用逻辑)和“身体”(技能执行环境)都运行在你自己的电脑或服务器上。你的对话历史、执行任务产生的中间文件、配置信息,都完全由你掌控。这种数据主权和安全性的提升,是选择自建方案的首要驱动力。
2.2 OpenClaw的独特价值:不只是聊天机器人
很多开源项目只是做了一个大模型的聊天界面。OpenClaw的不同之处在于,它定位为“AI Agent网关”。“Agent”意味着它能自主规划、使用工具、完成任务。OpenClaw内置了超过1500个技能(Skills),这些技能就是它的“工具包”。例如:
- 系统操作:读取文件、执行命令、管理进程。
- 网络操控:控制浏览器进行网页搜索、表单填写、数据抓取。
- 多媒体处理:调用Stable Diffusion生成图片,使用TTS合成语音。
- 第三方集成:直接操作Notion、Google Calendar、Jira等应用。
通过将这些技能与消息平台(如飞书、钉钉、Telegram)对接,你就能在聊天窗口里,用自然语言指挥AI完成一系列复杂操作。比如,你可以对飞书里的OpenClaw说:“帮我查一下今天下午3点的会议纪要,总结成500字简报,并邮件发给项目组。” 它会自动打开会议软件(如果有对应技能)、读取纪要、总结、调用邮件客户端发送。这才是真正的“智能助手”,而不仅仅是陪你聊天的机器人。
2.3 技术栈与生态考量
OpenClaw基于Node.js开发,这是一个非常成熟且生态丰富的运行时环境。选择它意味着:
- 跨平台兼容性好:Windows(含WSL)、macOS、Linux都能完美运行。
- 部署方式灵活:除了直接安装,还支持Docker容器化部署,这极大简化了在云服务器上的安装和维护过程。
- 社区活跃:24万+的GitHub Stars代表了庞大的用户和开发者社区,遇到问题更容易找到解决方案或获得帮助。
- 持续更新:项目保持活跃更新,从输入材料中提到的2026.4.14版本可以看出,它正在快速迭代,跟进最新的AI模型和能力。
基于以上分析,对于希望拥有一个功能强大、数据私有、可深度定制的AI助手的用户,OpenClaw是目前综合来看最值得投入学习和部署的开源方案。
3. 环境准备与安装:避开新手第一个大坑
安装是新手遇到的第一个挑战,不同平台差异很大。根据我的实测经验,强烈建议Windows用户使用WSL(Windows Subsystem for Linux),这能避开90%因路径、权限、依赖导致的诡异问题。macOS和Linux用户则相对顺畅。
3.1 Windows (WSL) 安装详解:最稳妥的路径
为什么首选WSL?因为OpenClaw及其依赖(如Node.js、Python包管理工具pip)在原生Linux环境下表现最稳定。WSL让你在Windows内获得一个完整的Linux子系统,完美兼容。
步骤1:启用WSL并安装Ubuntu
- 以管理员身份打开PowerShell或Windows终端。
- 执行命令启用WSL功能:
wsl --install。这个命令默认会安装Ubuntu发行版。如果系统提示需要重启,请照做。 - 重启后,首次打开Ubuntu应用,会提示你创建Linux用户名和密码。这个密码很重要,以后执行sudo命令时需要输入,请务必记住。
步骤2:配置WSL基础环境进入Ubuntu终端后,首先更新软件包列表:
sudo apt update && sudo apt upgrade -y接着,安装一些必要的编译工具和依赖:
sudo apt install -y curl wget git build-essential步骤3:安装Node.js(关键步骤)OpenClaw需要Node.js环境。推荐使用Node Version Manager (nvm) 来安装,方便后续管理版本。
# 下载并安装nvm curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash # 关闭并重新打开终端,或者执行以下命令使nvm生效 export NVM_DIR="$HOME/.nvm" [ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh" # 安装Node.js的长期支持版(LTS),目前推荐v20.x或v22.x nvm install --lts # 验证安装 node --version npm --version注意:如果你遇到网络问题导致nvm安装缓慢,可以考虑使用国内镜像源安装Node.js,但nvm的版本管理功能更强大。对于生产环境,建议通过nvm安装指定版本以确保一致性。
步骤4:安装OpenClaw CLI工具这是安装OpenClaw本体的官方推荐方式。
npm install -g @openclaw/cli安装完成后,验证是否成功:
openclaw --version如果显示版本号(如2026.4.14+),说明CLI工具安装成功。
3.2 macOS / Linux 安装流程
macOS和原生Linux的安装流程与WSL类似,但更简单。
对于macOS用户:
- 确保已安装Homebrew(如果没有,访问 brew.sh 安装)。
- 打开终端(Terminal),安装Node.js:
brew install node - 同样通过npm安装OpenClaw CLI:
npm install -g @openclaw/cli
对于Linux用户(如Ubuntu/Debian):
- 同样建议使用nvm安装Node.js,步骤与上述WSL部分完全一致。
- 安装OpenClaw CLI:
npm install -g @openclaw/cli
3.3 安装后的首要操作:运行配置向导
无论通过哪种方式安装好CLI,第一步不是直接启动,而是运行配置向导。这个交互式向导会帮你初始化核心配置文件,并引导你完成最基础的设置。
openclaw onboard跟随向导的提示,它会询问你是否安装守护进程(daemon)、设置工作目录等。对于新手,我建议对所有选项都选择默认或推荐值(通常是Yes)。这个向导能帮你建立一个可用的基础配置骨架,避免手动编辑配置文件的繁琐和出错。
4. 核心配置解析:连接AI大脑与消息通道
安装完成只是搭好了舞台,要让演员(AI)上台表演,还需要两样东西:一是给AI一个“大脑”(大模型API),二是给观众一个“互动渠道”(消息平台)。这是配置的核心。
4.1 大模型API配置:性价比与性能的平衡
OpenClaw本身不提供AI能力,它需要接入第三方的大模型API。选择哪个平台,直接关系到使用成本、响应速度和功能上限。
主流API平台横向对比与选择策略:
根据我的实测和使用经验,我将几个主流平台整理如下,你可以根据自己的需求对号入座:
| 平台 | 核心优势 | 适合人群 | 成本参考(以输入材料为准) | 实操注册要点 |
|---|---|---|---|---|
| 硅基流动 | 新手友好,注册即送大量免费额度(2000万Tokens),模型种类较全,国内访问稳定。 | 首次接触、想零成本体验和学习的用户。 | 注册送代金券,首月成本极低。 | 注册后需在控制台创建API Key,注意复制保存,只显示一次。 |
| 火山引擎方舟 | 性价比之王,Coding Plan套餐聚合了豆包、MiniMax、GLM、DeepSeek、Kimi等多家优质模型,按需调用。 | 追求性价比,且需要灵活调用不同模型的开发者或重度用户。 | Lite套餐首月活动价极具吸引力。 | 需准点抢购Coding Plan,抢到后同样在控制台创建API Key。 |
| 智谱AI (GLM) | 生态整合好,GLM-4系列模型在代码、推理方面表现稳定,与国内开发者工具链结合紧密。 | 已有智谱生态使用习惯,或需要稳定代码生成能力的用户。 | Lite套餐月付,年付有优惠。 | 注册后需实名认证才能获取API额度。 |
| MiniMax | 长文本处理强,abab系列模型在长上下文对话和文档处理上口碑不错。 | 经常需要处理长文档、进行深度内容分析和创作的文字工作者。 | 有体验额度,Lite套餐月付。 | API文档清晰,调试工具完善,对开发者友好。 |
配置实操(以硅基流动为例):
- 注册并登录硅基流动平台,进入“API Keys”管理页面。
- 点击“创建新的API Key”,为其命名(如“MyOpenClaw”),复制生成的Key(形如
sk-xxxxxxxxxxxxxxxx)。 - 回到终端,使用OpenClaw CLI配置模型提供商和Key:
openclaw config set provider siliconflow openclaw config set api_key sk-xxxxxxxxxxxxxxxx - 验证配置是否生效:
你也可以运行openclaw config get provider openclaw config get api_keyopenclaw models list来查看当前可用的模型列表,如果能正常列出,说明API连接成功。
重要心得:不要将API Key硬编码在项目文件或分享给他人。OpenClaw的配置向导会自动将API Key保存在用户主目录下的
~/.openclaw/openclaw.json配置文件中。这是相对安全的做法。对于团队项目或更高级的部署,可以考虑使用环境变量或密钥管理服务。
4.2 消息平台对接:让AI融入你的工作流
配置好大脑,接下来要给它安上“耳朵”和“嘴巴”。OpenClaw支持十几种消息平台,我强烈推荐从飞书或钉钉开始,因为它们的机器人创建流程对国内用户最友好,且有官方文档支持。
以飞书为例,5分钟快速对接:
- 创建飞书机器人:
- 登录 飞书开放平台 ,进入“创建企业自建应用”。
- 填写应用名称、描述,上传图标。
- 在“权限管理”中,为机器人添加“获取用户发给机器人的单聊消息”和“以应用身份发消息”等必要权限。
- 在“事件订阅”中,设置“请求地址URL”。先空着,我们下一步获取。
- 在“凭证与基础信息”页面,复制
App ID和App Secret,这两个是关键信息。
- 配置OpenClaw:
- 在终端运行飞书配置命令,并填入上一步获取的信息:
openclaw config set feishu.app_id <你的App ID> openclaw config set feishu.app_secret <你的App Secret>- 启动OpenClaw的Gateway(网关)服务,它会提供一个供飞书回调的URL:
openclaw gateway start- 启动后,CLI会输出类似
Gateway is running at http://localhost:3000的信息。你需要将这个本地地址暴露到公网,飞书服务器才能访问到。对于本地开发,强烈推荐使用ngrok或localtunnel这类内网穿透工具。
ngrok会生成一个随机的公网地址,如# 使用ngrok (需先安装 ngrok CLI 并登录) ngrok http 3000https://abc123.ngrok.io。
- 完成飞书配置:
- 回到飞书开放平台,在“事件订阅”的“请求地址URL”中,填入
https://abc123.ngrok.io/feishu/events。 - 点击“保存”,飞书会尝试发送一个验证请求。如果配置正确,OpenClaw的网关日志会显示验证成功。
- 最后,在飞书开放平台“版本管理与发布”中,创建版本并申请发布。审核通过(或直接在企业内自建应用免审)后,你就可以在飞书里搜索并添加这个机器人了。
- 回到飞书开放平台,在“事件订阅”的“请求地址URL”中,填入
对接过程中的避坑指南:
- URL验证失败:99%的原因是内网穿透工具生成的URL不稳定或已过期,或者OpenClaw的Gateway没有正常运行。确保
openclaw gateway status显示为运行中,并检查ngrok的隧道状态。 - 收不到消息:检查飞书机器人的权限是否添加完整,特别是接收消息的权限。确保用户已经将机器人添加为好友或拉入了群聊。
- HTTPS要求:飞书等平台要求回调地址必须是HTTPS。ngrok等工具提供的就是HTTPS地址,本地
http://localhost是无效的。
5. 技能(Skills)探索与使用:解锁AI的真正潜力
配置好API和消息平台,你的AI助手已经可以和你聊天了。但这只是基础。OpenClaw真正的威力在于其“技能”系统。技能可以理解为预定义的工具函数,AI在理解你的意图后,可以自动调用这些工具来完成任务。
5.1 内置技能库与发现
OpenClaw内置了一个庞大的技能库(ClawHub),你可以通过以下命令浏览和搜索:
# 列出所有可用技能类别 openclaw skills list-categories # 搜索特定技能,例如与网络相关的 openclaw skills search web你会发现技能种类繁多,从file_read(读取文件)、shell_execute(执行Shell命令)到web_search(网络搜索)、image_generate(图像生成)应有尽有。
5.2 技能的安全启用与授权
出于安全考虑,OpenClaw默认运行在沙箱模式下,许多涉及系统操作的技能(如文件读写、执行命令)是默认禁用的。你需要显式地启用并授权它们。
- 启用技能:编辑配置文件
~/.openclaw/openclaw.json,找到skills或allowed_skills部分,添加你想要启用的技能名。{ "skills": { "allowed": ["web_search", "file_read", "calculator"] } } - 理解授权流程:当你第一次要求AI执行一个需要权限的操作(如“读取我的文档目录下的报告.txt”),AI会通过消息平台向你发送一个授权请求。你确认后,该操作才会执行。这是一个重要的安全机制,防止AI未经许可访问敏感资源。
- 沙箱与安全边界:新版本的OpenClaw默认沙箱限制了AI对文件系统的访问范围(通常仅限于工作空间目录
~/.openclaw/workspace)。这意味着AI无法随意读取你硬盘上的其他文件。这是一个非常好的安全实践,请不要轻易禁用沙箱,除非你完全清楚潜在风险。
5.3 实战技能组合案例
技能的强大之处在于组合。AI可以规划一连串动作。例如,你可以提出一个复杂请求:
“帮我查一下今天关于‘AI智能体’的最新行业新闻,总结成三点,并保存到一个Markdown文件里。”
AI可能会规划并执行以下技能链:
web_search:使用浏览器或搜索API查找新闻。text_summarize(或通过大模型本身的能力):总结内容。file_write:将总结写入workspace目录下的一个.md文件。- 最后通过消息平台将文件和总结摘要发送给你。
我的使用心得:开始时,建议从简单的、无害的技能试起,比如calculator(计算器)、current_time(获取当前时间)。熟悉交互流程和授权机制后,再逐步尝试web_search和file_read/write。对于shell_execute(执行命令)这类高危技能,务必在完全可控的环境(如虚拟机或隔离的容器)中谨慎测试,并仔细审查AI将要执行的命令内容。
6. 云服务器部署:实现24小时在线助理
在本地运行,AI助手只能在你电脑开机时工作。要让它成为真正的“24小时在线助理”,你需要将它部署到云服务器上。这听起来复杂,但利用Docker和云厂商的现成镜像,可以大大简化。
6.1 云服务商与服务器选型
对于OpenClaw这类应用,对服务器性能要求并不苛刻。初期体验,选择最低配置的云服务器即可。重点在于网络稳定(用于调用API和接收消息回调)和成本。
- 阿里云/腾讯云轻量应用服务器:这是最省心的选择。它们提供了优化过的应用镜像和简单的管理面板,特别适合新手。通过教程中提到的专属活动链接,往往能以非常低的价格(首年几十到百元)获得一台包含流量包的服务器。
- 标准ECS/CVM:如果你需要更灵活的控制或未来部署更复杂的服务,可以选择最低配的通用型云服务器(1核1G或1核2G内存)。
一个重要建议:选择服务器地域时,尽量选择国内地域(如华北、华东、华南)。这能保证服务器与国内API平台(硅基流动、智谱等)之间的网络延迟最低,响应速度最快。
6.2 使用Docker Compose一键部署(推荐)
这是目前最主流、最易于维护的部署方式。你不需要在服务器上手动安装Node.js、配置环境,所有依赖都打包在Docker镜像里。
- 连接服务器:通过SSH连接到你的云服务器。
ssh root@你的服务器IP - 安装Docker和Docker Compose:如果你的云服务器镜像没有预装,需要先安装。
# 以Ubuntu为例 curl -fsSL https://get.docker.com -o get-docker.sh sudo sh get-docker.sh sudo apt-get install docker-compose-plugin -y - 准备部署目录和配置文件:
创建mkdir -p /opt/openclaw && cd /opt/openclawdocker-compose.yml文件:
关键点:我们通过version: '3.8' services: openclaw: image: openclaw/openclaw:latest # 使用官方镜像 container_name: openclaw restart: unless-stopped ports: - "3000:3000" # 将容器内的3000端口映射到主机 environment: - NODE_ENV=production # 在这里通过环境变量传入你的API Key等敏感配置 - OPENCLAW_API_KEY=sk-xxxxxxxxxxxxxxxx - OPENCLAW_PROVIDER=siliconflow volumes: # 持久化存储配置和数据 - ./data:/root/.openclaw # 如果需要浏览器自动化,可能需要映射更多设备 # - /dev/shm:/dev/shm # 如果需要沙箱和资源限制,可以添加以下配置 # cap_drop: # - ALL # security_opt: # - no-new-privileges:true # read_only: truevolumes将容器内的/root/.openclaw目录映射到宿主机的./data目录。这样,即使容器重建,你的配置和对话数据也不会丢失。 - 配置与环境变量:更安全的做法是将API Key等敏感信息放在环境变量文件
.env中,而不是直接写在Compose文件里。
然后修改# 创建 .env 文件 cat > .env << EOF OPENCLAW_API_KEY=sk-xxxxxxxxxxxxxxxx OPENCLAW_PROVIDER=siliconflow # 飞书配置 OPENCLAW_FEISHU_APP_ID=your_app_id OPENCLAW_FEISHU_APP_SECRET=your_app_secret EOFdocker-compose.yml,使用env_file指令引入:
务必确保services: openclaw: ... env_file: - .env ....env文件不被提交到公开的代码仓库。可以在.gitignore中加入.env。 - 启动服务:
使用docker compose up -ddocker compose logs -f openclaw查看实时日志,确认服务启动无误。
6.3 配置域名、SSL与反向代理
现在服务运行在服务器的3000端口。要让飞书等平台能稳定访问,你需要:
- 绑定域名:在云服务器控制台,将你的域名解析到服务器公网IP。
- 安装Nginx并配置反向代理:这样可以通过80/443标准端口访问,并配置SSL证书实现HTTPS。
创建Nginx站点配置sudo apt install nginx -y/etc/nginx/sites-available/openclaw:
启用配置并测试:server { listen 80; server_name your-domain.com; # 替换为你的域名 location / { proxy_pass http://localhost:3000; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection 'upgrade'; proxy_set_header Host $host; proxy_cache_bypass $http_upgrade; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; } }sudo ln -s /etc/nginx/sites-available/openclaw /etc/nginx/sites-enabled/ sudo nginx -t sudo systemctl reload nginx - 申请SSL证书:使用Let‘s Encrypt的Certbot工具免费获取HTTPS证书。
按照提示操作,Certbot会自动修改Nginx配置,启用HTTPS。sudo apt install certbot python3-certbot-nginx -y sudo certbot --nginx -d your-domain.com
完成以上步骤后,你的OpenClaw服务就可以通过https://your-domain.com安全访问了。将这个地址配置到飞书机器人的回调URL中(例如https://your-domain.com/feishu/events),即可实现公网访问。
7. 故障排查与日常维护指南
部署和运行过程中,难免会遇到问题。这里我总结了一些最常见的问题和排查思路,帮你快速定位。
7.1 启动与连接类问题
| 问题现象 | 可能原因 | 排查步骤 |
|---|---|---|
openclaw --version报错“命令未找到” | Node.js或OpenClaw CLI未正确安装。 | 1. 运行node --version确认Node.js已安装。2. 运行 `npm list -g |
openclaw gateway start失败,端口被占用 | 3000端口已被其他程序(如另一个OpenClaw实例)使用。 | 1. 运行lsof -i :3000或 `netstat -tulpn |
| 飞书/钉钉机器人回调URL验证失败 | 1. Nginx/反向代理配置错误。 2. 防火墙/安全组未开放端口。 3. OpenClaw Gateway未运行。 | 1. 在服务器上运行curl http://localhost:3000/health,确认服务内部可达。2. 检查云服务器安全组规则,确保80/443端口入站开放。 3. 检查Nginx错误日志: sudo tail -f /var/log/nginx/error.log。4. 确认回调URL路径正确(如 /feishu/events)。 |
| AI助手不响应消息 | 1. API Key无效或余额不足。 2. 模型配置错误。 3. 技能未启用或授权未通过。 | 1. 运行openclaw doctor进行整体诊断。2. 运行 openclaw models list检查API连接。3. 查看Gateway运行日志: openclaw gateway logs,看是否有错误信息。4. 检查消息平台是否成功发送了消息,在日志中搜索相关消息ID。 |
7.2 性能与稳定性优化
- 内存占用高:OpenClaw本身不耗资源,但如果你启用了浏览器自动化技能(如
web_browse),它可能会启动一个无头Chrome实例,这会消耗较多内存(~500MB)。如果服务器内存较小(如1G),建议谨慎启用此类技能,或在Docker Compose中为容器设置内存限制。services: openclaw: ... deploy: resources: limits: memory: 1G - 响应速度慢:延迟主要来自两部分。一是AI模型API的响应时间,这取决于你选择的模型和提供商。二是技能执行时间,比如网络搜索、生成图片。对于API延迟,可以尝试切换到响应更快的模型或地域更近的提供商端点。对于技能延迟,可以考虑设置超时时间,或在非关键任务中使用异步模式。
- 日志管理:长期运行的服务器会产生大量日志。建议配置日志轮转(log rotation),防止日志文件撑满磁盘。对于Docker部署,可以在Compose文件中配置日志驱动和大小限制。
services: openclaw: ... logging: driver: "json-file" options: max-size: "10m" max-file: "3"
7.3 备份与升级策略
备份:最重要的就是~/.openclaw目录(Docker部署中映射的./data目录)。定期备份这个目录即可保留所有配置、对话历史和技能数据。
# 简单备份命令 tar -czf openclaw-backup-$(date +%Y%m%d).tar.gz ~/.openclaw # 对于Docker部署,备份挂载卷目录 tar -czf openclaw-data-backup-$(date +%Y%m%d).tar.gz /opt/openclaw/data升级:
- CLI工具升级:
npm update -g @openclaw/cli - Docker镜像升级:
升级前务必备份数据目录!虽然OpenClaw的配置格式通常向下兼容,但重大版本升级前,最好查阅官方发布的版本变更说明(如输入材料中提到的cd /opt/openclaw docker compose pull openclaw docker compose down docker compose up -dversion-changes/目录下的文档)。
部署和维护一个自托管的AI助手,就像养一只电子宠物。初期需要一些耐心去搭建环境和调试,但一旦它稳定运行起来,并能融入你的日常工作流,带来的效率和乐趣是巨大的。从简单的信息查询、内容总结,到复杂的自动化流程,你可以根据自己的需求不断调教和扩展它。这个过程中积累的经验,不仅是关于一个工具的使用,更是对AI Agent如何思考、如何与真实世界交互的深入理解。