OpenClaw具备强悍的AI代理能力,也是当下热度极高的工具,可它足足有43万行代码,不光对电脑硬件要求偏高,还存在一定的数据安全隐患,导致大批开发者与普通用户都没法轻松上手使用,而香港大学开源的Nanobot,仅仅依靠四千行Python代码就实现了OpenClaw的核心Agent功能,算得上好用又极简的替代方案,这款工具不仅体积小巧、代码容易看懂、部署步骤简单,还能同时适配本地与云端各类大模型,这篇文章会先讲解Nanobot的核心优势,再一步步带着大家完成本地部署,同时附上可直接复制使用的代码与配置教程,让大家轻松搭建属于自己的轻量AI代理。
一、Nanobot:OpenClaw轻量平替,核心亮点全解析
Nanobot是香港大学数据科学实验室推出的开源个人AI助手框架,整体设计思路简单直白、拓展起来也很方便,和代码量庞大的OpenClaw相比,这款工具的各项优势都十分突出:
- 极致轻量化:核心代码只有四千行,整体代码量直接缩减99%,没有乱七八糟的第三方依赖,启动响应速度特别快,就算是配置不高的旧笔记本也能稳定运行。
- 核心功能完备:保留了OpenClaw的主流代理能力,支持多平台模型对接、多款聊天软件交互、代码解析运行、本地文件管理、全网信息查找、长久记忆存储,完全能满足日常使用AI代理的各类需求。
- 模型兼容性强:原本就能适配OpenAI、Claude、DeepSeek等主流云端大模型,也能通过Ollama、vLLM连接本地私有模型,全程能更好保护本地数据不泄露。
- 易拓展易修改:代码框架清晰不复杂,没有多层嵌套的复杂类继承,开发者可以轻松改动底层运行逻辑、添加自定义功能插件,特别适合二次开发和技术学习研究。
- 多平台交互适配:自带Telegram、飞书、微信等主流聊天软件对接渠道,只要简单配置对应的Token密钥,就能在日常聊天工具里操控这款AI代理。
二、部署前期筹备:环境配置与所需资源
部署Nanobot不需要高配电脑,大家提前备好以下各类资源,就能顺利开启部署流程:
- 操作系统与Python环境:Windows、macOS、Linux三大系统都能正常使用,大家需要提前安装Python 3.11及以上版本,更建议使用虚拟环境分开管理依赖包,避免出现版本冲突问题。
- 模型对接方案(选一种即可):云端模型需要提前备好OpenAI、Anthropic、DeepSeek等平台的API调用密钥,本地模型则要先安装Ollama工具,下载Qwen、Llama这类本地大模型(比如qwen2.5、llama3),本地部署使用能更好保护个人数据隐私。
- 交互渠道(这里以Telegram为例):提前注册Telegram账号,用来搭建机器人作为AI代理的操作入口。
- 基础工具:准备好电脑自带的终端或者命令行工具,搭配pip或者uv包管理工具即可,更推荐使用uv,依赖包下载安装速度会更快。
三、Nanobot本地部署:手把手实操步骤+完整代码
步骤1:搭建并激活虚拟环境(推荐,规避依赖冲突)
打开终端工具,按照顺序运行下方命令,就能快速创建并激活虚拟环境。
# 创建虚拟环境(以venv为例)
python -m venv nanobot-env
# 激活虚拟环境
# Windows(PowerShell)
.\nanobot-env\Scripts\Activate.ps1
# macOS/Linux
source nanobot-env/bin/activate
步骤2:安装Nanobot核心依赖
使用pip或者uv都能完成Nanobot安装,更推荐大家用uv工具,能大幅提升依赖包的下载与安装速度。
# pip安装
pip install nanobot-ai
# uv安装(更快,推荐)
uv pip install nanobot-ai
安装流程结束后,终端会弹出Successfully installed nanobot-ai-x.x.x提示,看到这条内容就代表工具安装完成。
步骤3:初始化Nanobot配置文件
运行初始化指令,系统会自动生成默认配置文件,后续大家可以根据自身需求修改各项参数。
nanobot init
命令运行完毕后,当前文件夹内会自动生成nanobot_config.yaml文件,模型参数、聊天渠道、功能开关等所有设置,都需要在这个文件里修改。
步骤4:配置模型对接参数(云端/本地任选其一)
打开nanobot_config.yaml文件,找到llm设置板块,再根据自己选定的模型类型,修改对应的配置内容。
方案A:对接云端大模型(以OpenAI为例)
llm:
provider: openai
api_key: "你的OpenAI API密钥"
model: "gpt-3.5-turbo" # 可替换为gpt-4、deepseek-chat等
base_url: "https://api.openai.com/v1" # 国内可替换为OpenRouter等中转地址
方案B:对接本地Ollama模型(隐私优先方案)
大家要先确认Ollama工具已经正常开启,并且提前下载好对应模型(比如运行ollama pull qwen2.5),再去修改配置文件里的参数。
llm:
provider: ollama
api_key: "" # Ollama本地运行无需密钥
model: "qwen2.5" # 替换为你下载的Ollama模型名
base_url: "http://localhost:11434" # Ollama默认地址
步骤5:Telegram交互渠道配置(快速上手)
- 打开Telegram,搜索官方机器人@BotFather并发送/newbot,跟着页面提示设置机器人的名称与用户名,就能拿到专属Bot Token,格式大致为123456:ABC-DEF1234ghIkl-zyx57W2v1u123ew11。
- 接着搜索@userinfobot并发送/start,就能获取自己的Telegram用户ID,这个ID用来设置使用权限,只有本人能操控这款AI代理。
回到nanobot_config.yaml配置文件,找到channels设置板块,开启Telegram功能并填入刚才获取的两项信息。
channels:
telegram:enabled: true bot_token: "你的Telegram Bot Token" allowed_user_ids: - "你的Telegram用户ID" # 仅允许该用户与AI交互
步骤6:开启核心功能工具(代码运行、文件操作等)
Nanobot自带多款日常常用工具,直接在配置文件里开启对应功能即可,找到tools设置板块修改参数。
tools:
code_interpreter:
enabled: true # 启用代码解释器,可执行Python代码
file_system:
enabled: true # 启用文件操作,可读写本地文件
web_search:
enabled: true
search_engine: "bing" # 可选bing、google
api_key: "" # Bing搜索需API密钥,可留空用免费额度
memory:
enabled: true # 启用长期记忆,保留交互历史
步骤7:启动Nanobot代理服务
所有配置参数修改完成后,运行启动指令,就能正常开启AI代理服务。
nanobot run
终端会实时显示运行日志,出现Nanobot is running...这句话就代表服务启动成功,此时Telegram机器人会同步上线,直接发送消息就能正常使用。
四、功能实测:校验Nanobot核心代理能力
服务启动完毕后,在Telegram里给机器人发送指令,就能逐一测试工具的核心功能。
- 代码运行测试:发送“帮我写一段Python冒泡排序代码,并且运行输出结果”,AI会自动编写代码并执行,最终把运行结果反馈回来。
- 文件操作测试:发送“帮我在当前文件夹新建一个test.txt文件,文件内容写入Hello Nanobot”,查看本地文件夹是否能正常生成对应文件。
- 网页搜索测试:发送“查找2026年AI代理最新技术趋势”,AI会调用搜索工具获取信息并整理后反馈。
- 记忆测试:先发送“我平时喜欢研究Python和AI代理”,再发送“我喜欢研究什么内容”,AI会依据之前的对话内容精准回复。
五、常见故障排查与运行优化建议
- 模型无法调用:检查API密钥是否输入正确、网络连接是否稳定,国内用户可以选用OpenRouter中转服务,使用本地模型则要确认Ollama正常开启、模型名称输入无误。
- Telegram机器人不回复:核对Bot Token和用户ID是否填写正确,同时确认虚拟环境已激活、Nanobot服务处于正常运行状态。
- 运行卡顿优化:电脑配置偏低的话,建议选用轻量型本地模型,关闭不用的功能工具,使用云端模型可以选择gpt-3.5-turbo,既能降低使用成本,运行速度也更快。
- 自定义添加功能:如果想要新增专属工具,可以在Nanobot源码的tools文件夹内新建Python文件,写完功能代码后,再去配置文件里开启对应模块即可。
六、实操总结
Nanobot凭借精简的代码量,完美实现了OpenClaw的核心功能,也彻底解决了原版OpenClaw代码臃肿、部署繁琐、上手难度高的问题,不管是个人日常使用、开发者二次修改,还是学习研究技术,都是十分优质的轻量AI代理选择,这篇教程从前期准备、环境搭建到功能测试,每一步都讲解得十分详细,所有代码都能直接复制复用,就算是零基础新手,也能快速搭建好本地AI代理。
后续大家还能给Nanobot拓展更多功能,比如对接飞书、微信这类国内常用聊天软件,添加个性化自定义工具,或是搭配本地大模型实现完全离线运行,打造出更贴合自身使用习惯的私人智能助手。