2026年大模型赋能投研之十六:OpenClaw搭建个人投研助理(一)

OpenClaw 带来 AI Agent 全新突破,引起市场高度关注

OpenClaw是一款由程序员Peter Steinberger开发的开源AI Agent应用,曾用名Clawdbot、 Moltbot,2026 年 1 月 25 日在 GitHub 上发布后短时间内便获得 AI 社区高度关注,后续 快速出圈获得市场广泛关注。

OpenClaw 获得高度关注的核心原因在于: a)、自动实现高自由度的智能化应用,完全文本对话形式就可以达到其他 Agent 产品需要 通过代码、或是用工作流工具才能实现的复杂功能,兼顾易用性与专业性; b)、部署相对简单快速,且对本地设备要求不高,可在个人 Linux、macOS 或 Windows 系 统中安装; c)、支持集成到飞书、钉钉等手机应用中,具有极高的使用便捷性。 以上特性大幅降低了使用门槛,让一般使用者也能拥有高度定制化的个人 Agent,也因此 使其得到更广泛的普及。 底层机制上,OpenClaw 也是按照传统智能体“规划、执行与反馈”的框架实现功能,但在 记忆(Memory)、工具(Tools)等模块设计上更加完善,因此 OpenClaw 最终展现出极强的 通用能力,能够实现丰富的效果。 本文首先展示 OpenClaw 的部署与初步使用方法,并着重介绍其最具有特色的几个功能模 块。随后,我们结合具体案例介绍 OpenClaw 的应用效果,展现其在日常生活或工作中能 带来的实际效率提升。

如何快速上手 OpenClaw?

2.1 OpenClaw 部署指南

OpenClaw 最适合部署的环境是 Linux 和 macOS 系统,在 Windows 系统中运行时的稳定性 不高,因此还引发了 Mac Mini 的采购潮。当前来看,若用户没有空闲的 macOS 设备,也 无需专门采购,有两种性价比较高的部署方式:

a)、使用 WSL2、或 VMware 创建 Linux 环境并部署 OpenClaw

WSL2 全称“适用于 Linux 的 Windows 子系统”,是最新 Windows 系统均自带的功能之一。 相比 VMware 虚拟机方法,WSL2 部署的 Linux 系统启动更快,占用的 CPU 和内存资源更少, 也能访问 Windows 系统中的文件,是更推荐的 Linux 系统安装方式。步骤如下:

部分用户需要在“控制面板->程序->启用或关闭 Windows 功能”中勾选以下选项以打 开 WSL 功能,其他具体细节此处不做详细介绍。

重启后,打开 cmd 终端执行“wsl --install”命令,即可安装默认的 Linux 分发版Ubuntu 系统。

在开始部署前需要提醒的是,我们有必要对 OpenClaw 的权限进行限制。OpenClaw 在系统 层面具备高自由度,基本能够访问到电脑内的所有文件,若用户后续有将 OpenClaw 开放 至公网的需求,必须对其权限进行限制。在 Linux 系统中,我们可以通过创建非 root 权 限账户,并登录该账户来配置 OpenClaw,这样可有效防止其篡改其他系统的文件,并防范 其他网络安全问题。

b)、借助云服务器实现一键部署

我们也可以借助云服务商提供的在线云服务器部署 OpenClaw。个人电脑不便于部署、对 系统安全性有较高要求、或是单纯想快速使用的用户可以选择此种方式。 当前国内各家云厂商如腾讯云、阿里云、火山引擎等都快速反应,推出了一键部署 OpenClaw 的服务,并在官网展示详细的部署教程。以阿里云旗下的无影云电脑为例,目前 已推出一键部署 OpenClaw 套餐服务,只需在官网采购后并进行简单设置,就能立刻获得 完成部署的纯净 Linux 系统。

2.2 OpenClaw 初步配置指南:模型与通讯软件的连接

OpenClaw 支持两种配置方法:onboard 和 dashboard。其中“openclaw onboard”命令会 打开 CLI 命令界面,便于已准备好模型 API 密钥的用户进行快速配置。 但若需要进行底层设置的修改、或对于习惯可视化界面的用户,也可以通过“openclaw dashboard”命令打开可视化面板来完成配置。

Dashboard 是基于浏览器的控制台(Control UI),可用于查看运行状态、管理配置、观察 事件与日志,其面向的是管理员与使用者本人,定位更偏“本地/私有运维台”,不适合作 为公网开放服务。官方特别强调其安全属性:控制台涉及聊天、配置与执行审批等高权限 能力,应优先在本机或可信网络中访问,避免暴露到不可信环境。Dashboard 的具体用法 本文中不进行详细展示。

a)、模型的配置

当前 OpenClaw 已支持海内外多种大模型平台,对于 onboard 快速配置方法此处我们不做 过多赘述。用户只需要根据提前准备好的模型 API 密钥选择对应模型提供方,并按提示完 成配置即可。我们以下介绍一种完全自定义的方法,可将任意模型接入 OpenClaw。 目前官方接口中虽然已支持诸如 Moonshot(Kimi 系列模型)、Z.AI(GLM 系列模型),但譬 如 DeepSeek 等模型还无法直接配置;此外,若我们使用第三方平台转发方式调用 GPT 或 Claude 模型,也需要调整 base_url 等参数,无法直接配置成功。

b)、Channels:通讯软件的连接

Channels 是 OpenClaw 的对外通信层,负责将 AI 助手接入用户既有的沟通渠道并完成消 息收发。从生态覆盖看,OpenClaw 既支持 WhatsApp、Discord、iMessage、Microsoft Teams 等主流平台,也支持 Matrix、Zalo、WebChat 等扩展渠道。目前国内常用的通讯软件方面, 仅飞书和钉钉支持将 OpenClaw 接入到应用中。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告