Buda LogoBuda

API Claw — 智能硬件 & 第三方开发者接入

通过 Buda OpenAPI,让你的硬件或软件产品拥有云端 AI Agent 能力,无需自建推理基础设施

API Claw — 智能硬件 & 第三方开发者接入

智能手表、IoT 设备、聊天插件……这些产品都想内置 AI Agent,但在设备端跑大模型不现实:算力不够、功耗太高、效果太差。

API Claw 就是为这个场景设计的:通过 Buda 的 OpenAPI,第三方开发者可以用几个 API 调用,给自己的产品接入一个云端 OpenClaw 🦞 AI Agent,拥有对话能力和专属知识库,按需唤醒、不用时零消耗。

更准确地说,你接入的不是一个裸模型 API,而是一层已经托管好的 Agent 能力层,里面已经包括模型、运行时、知识库、会话管理和弹性扩缩容。

适合谁

  • 智能硬件开发商 — 手表、耳机、IoT 设备,想内置 AI 助手
  • 软件开发商 — 微信小程序、App、浏览器插件,想嵌入 AI 对话
  • SaaS 服务商 — 想给自己的客户提供"带 AI 的私有空间"

两类最典型的接入方

1. 聊天软件、SaaS 工具、第三方软件服务商

如果你已经有自己的产品,有用户、有聊天窗口、有表单或工作流,API Claw 可以让你在不重做整套后端 AI 基础设施的前提下,把 AI Agent 直接嵌入进去。

例如:

  • 一个聊天软件,希望每个聊天窗口都能接一个 AI 助手
  • 一个客服 SaaS,希望每个客户都有自己的私有 AI 客服
  • 一个浏览器插件或企业内部系统,需要一个云端 AI Worker

2. 智能硬件厂商

如果你在做智能手表、耳机、语音终端或其他联网设备,API Claw 可以让设备直接连接一个云端 AI 大脑,而不是在设备本地硬跑复杂智能能力。

也就是说:

  • 设备端负责输入输出
  • Agent 在云端运行
  • 能力升级在服务端完成,不必把复杂度都压到固件里

工作原理

你的产品(硬件/软件)
        ↓  API 调用
  Buda OpenAPI

  Space(租户空间)

  Agent(AI 助手)+ Drive(知识库)

  Chat Session(对话)

每个终端用户对应一个独立的 Chat Session,上下文隔离。Agent 睡眠时不消耗资源,收到消息时自动唤醒。

你不需要自己做的部分

接入 API Claw 之后,开发者不需要再单独建设或维护下面这些基础设施:

  • 模型配置和供应商切换
  • 推理机器或 GPU 基础设施
  • Agent 运行时和工具沙箱
  • 文件知识库处理
  • 会话与上下文管理
  • 不同用户 / 客户之间的租户隔离
  • 空闲 Agent 的唤醒与休眠调度

这正是 API Claw 的价值所在:你的团队专注产品本身,Buda 提供背后的 Agent 基础设施层。

为什么不直接调 LLM API?

直接调模型 API,拿到的是模型输出;接 API Claw,拿到的是一个可运行的 AI Agent。

裸模型 APIAPI Claw
返回内容文本或结构化结果带上下文的 Agent 回复
会话你自己管理内建 Session 模型
知识库你自己做检索自带 Drive 知识库
运行时你自己编排托管 Agent Runtime
多租户你自己设计内建 Space 隔离
运维你自己扛Buda 托管

如果你是产品公司,这个差异比单纯“调用模型”更重要。

API Claw 和 OpenClaw 的关系

OpenClaw 是底层的 Agent 能力和运行时模型,API Claw 则是把这层能力产品化、API 化之后给外部开发者接入的方式。

简单说:

  • OpenClaw = 底层 Agent runtime / capability layer
  • API Claw = 面向开发者的接入层

接入流程

注册开发者账号,获取 API Key

在 Buda 注册一个开发者账号,进入设置获取 API Key。这个 Key 用于后续所有 OpenAPI 调用的鉴权。

创建 Space(租户空间)

每个你的客户(或每台设备)对应一个 Space。

POST /api/openapi/spaces
Authorization: Bearer <your-api-key>

{
  "name": "用户的设备空间"
}

返回 spaceId,保存下来。

在 Space 内创建 Agent

POST /api/openapi/spaces/{spaceId}/agents
Authorization: Bearer <your-api-key>

{
  "name": "我的 AI 助手",
  "instructions": "你是一个智能手表助手,帮助用户管理日程、回答健康问题。"
}

返回 agentId

(可选)上传知识库文件到 Drive

如果你的 Agent 需要基于特定文档回答问题(产品手册、FAQ 等),可以上传文件:

POST /api/openapi/spaces/{spaceId}/drive/upload
Authorization: Bearer <your-api-key>
Content-Type: multipart/form-data

file=<your-document>

发起对话

POST /api/openapi/spaces/{spaceId}/agents/{agentId}/chat
Authorization: Bearer <your-api-key>

{
  "sessionId": "device-user-001",
  "message": "今天天气怎么样?"
}

sessionId 由你自己管理,用于区分不同终端用户的对话上下文。同一个 sessionId 的消息共享历史,不同 sessionId 完全隔离。

计费模式

Buda 按 Space 收费,不按终端用户数量收费。你作为开发者购买 Space,如何向你的终端用户收费由你自己决定。

典型模式:

  • 你向 Buda 购买 Space(批量可议价)
  • 你向你的终端用户收订阅费(手表激活费、月费等)
  • 差价即为你的利润

为什么硬件团队会特别在意这个能力

对硬件团队来说,这会直接改变成本结构:

  • 不需要为了 AI 能力把设备做得足够重
  • 不需要让用户自己的电脑或手机长期充当主运行环境
  • 不需要额外养一支复杂的 AI 后端团队,只为支撑某一条设备产品线

你的硬件可以保持轻量,而 AI 能力持续在云端升级。

与 ChatGPT / OpenAI 的类比

OpenAIBuda
面向消费者的产品ChatGPTBuda App
面向开发者的 APIOpenAI APIBuda OpenAPI
开发者用 API 构建自己的 AI 产品带 Agent + Drive 的完整 AI 空间

区别在于:Buda OpenAPI 不只是模型调用,而是提供了完整的 Agent 运行环境,包括知识库、会话管理、工具调用能力。

为什么不用 OpenClaw?

OpenClaw 是一个优秀的开源 AI Agent 项目,适合个人用户在自己的机器上自托管运行。但对于需要规模化接入的硬件或软件开发商,它并不是合适的选择。

完整对比参见:Buda vs OpenClaw 深度对比

OpenClawBuda
定位开源个人助手,自托管商业企业级平台,托管服务
基础设施运行在用户本地机器自研 Kubernetes 集群(Claws Computer),弹性伸缩
网关架构重量级 Gateway,单机瓶颈无传统 Gateway,轻量 API 层,天然横向扩展
多租户不支持,每个实例独立原生多租户,一个 API Key 管理百万 Space
Token 管理依赖用户自行配置模型商业化 Token 管理,成本可控可预测
隔离性共享宿主机 OS每个 Agent 独立沙箱,容器级隔离
SLA & 支持社区支持,无 SLA企业级 SLA,商业支持
适合场景个人极客、开发者自用硬件量产、SaaS 集成、规模化商业部署

一句话总结:OpenClaw 是给个人用的工具,Buda 是给开发者卖给用户的基础设施。

如果你要给 10 万台手表每台配一个 AI 助手,你需要的是 Buda,而不是在每台设备背后跑一个 OpenClaw 实例。

常见问题

终端用户需要注册 Buda 账号吗? 不需要。终端用户完全不感知 Buda 的存在,你的产品通过 API 代理所有交互。

Agent 不用时会一直消耗资源吗? 不会。Agent 在没有对话时处于休眠状态,只有收到消息时才被唤醒处理。

我能给不同用户配置不同的 Agent 指令吗? 可以。每个 Space 可以有独立的 Agent 配置,你可以按需为不同用户创建不同的 Space 和 Agent。

On this page