FAQ / Local LLM

SmallClaw 常见问题

这一页先整理出普通用户最常问的 10 个问题,覆盖本地模型、安装试用、使用方式、安全、价格和进一步阅读。后续如果还有新问题,我们会继续往这里补充。

Copyright © 2026 Smallsoft Pty Ltd. All rights reserved.

SmallClaw 支持本地 LLM 吗?

支持。SmallClaw 的模型请求会走你自己配置的模型服务,所以如果你接的是本地部署的模型服务,它就可以按本地 LLM 的方式工作。与此同时,权限、渠道、任务、运行历史和本地 Skills 的控制都仍然在本地 macOS 应用中完成。

换句话说,SmallClaw 支持本地 LLM 接入,但是否完全离线,取决于你接入的模型服务本身。

SmallClaw Agent Console showing a local Ollama provider configuration
本地 Gemma 模型怎么接入 SmallClaw?

做法很简单:先把本地 Gemma 模型以 OpenAI-compatible 的方式提供服务,再在 SmallClaw 里把这个服务当成一个本地模型源接入。以 Ollama 为例,通常可以先把服务地址设成 http://localhost:11434/v1,然后填入你实际拉起的 Gemma 模型名。

在 SmallClaw 里,进入 Settings / AI Models,启用 Ollama (Local),填写 endpoint 和 model 名,保存后就可以在 Agent Console 里测试。

SmallClaw Agent Console showing a local Ollama provider and local profile selection
  • 先确认本地模型服务已经按 OpenAI-compatible chat completions 暴露出来。
  • AI Models 里启用本地 provider,并填写正确的 endpoint 和 model 名。
  • 保存后到 Agent Console 里发一句简单请求,比如 Hello,确认返回正常。

如果连不上,优先检查三件事:endpoint 是否正确、model 名是否一致、以及本地服务是否真的是 OpenAI-compatible 接口。SmallClaw 会把本地 Gemma 当作日常对话模型、项目和任务的语义理解模型,以及本地优先、低延迟、隐私友好的工作模型来使用。

SmallClaw 是什么?

SmallClaw 是一款原生 macOS 桌面 AI Agent 应用。它不是只会聊天的助手,而是可以接任务、组织流程、控制权限,并把自然语言指令转成实际行动的桌面工具。

SmallClaw 和普通聊天型 AI 有什么不同?

普通聊天型 AI 主要回答问题;SmallClaw 更进一步,能把回答变成执行链路。它能管理渠道、任务、工作流、Skills 和本地权限,让 AI 不只是说话,而是真正做事。

SmallClaw 怎么安装和试用?

最直接的方式是先下载试用版。SmallClaw 是一个独立的 macOS 应用,下载后就可以直接打开,不需要先搭环境或安装一堆依赖。想继续了解,先从产品主页和技术指南开始。

SmallClaw 需要先会编程吗?

不需要。普通使用只要会配置模型和渠道就可以。只有当你想进一步管理 Skills、自动化规则或更复杂的工作流时,才会更需要一点技术理解。

SmallClaw 可以通过哪些渠道使用?

SmallClaw 可以通过 WhatsApp、Telegram、Slack、iMessage 等多种渠道接收任务。你可以把它理解成一个统一中枢,不同入口都可以把请求送进来。

SmallClaw 能做哪些实际工作?

它可以帮助整理信息、推进任务、生成回复、处理工作流、调用本地能力,以及把分散的操作组织成可持续执行的流程。更简单地说,它的目标不是只回答,而是帮你把事做完。

SmallClaw 的数据和权限安全吗?

SmallClaw 的安全设计是本地优先的。敏感信息会尽量留在本机,权限由 macOS 和应用内机制共同控制,外来 Skills 也会先经过复审再进入运行链路。这样做的重点,是让用户始终知道它能做什么、不能做什么。

SmallClaw 是按月订阅还是一次性购买?

你可以先试用,再根据自己的使用感受决定是否购买个人模式还是组织(公司)模式。具体授权方式和价格信息以购买页面为准。