用 Ollama 本地部署 OpenClaw,让 AI 7x24 免费为你工作!

用 Ollama 在本地运行 Ministral-3:3b 等轻量模型,替代 OpenClaw 的云端 API 调用,实现 7×24 免费智能体服务;Telegram 接入、任务调度由 OpenClaw 完成,推理交由本地模型,大幅降低 Token 成本,复杂任务仍可按需切回云端大模型。

发布于2026年2月27日 15:28
作者零重力瓦力
评论0
阅读5

使用 OpenClaw 的人越来越多,但随之而来的 Token 消耗,也让不少人望而却步。只要调用云端 API,每一次对话、每一次任务执行都会产生费用。一旦让智能体长时间运行,成本很快就会激增。

有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

技术博主 Mervin Praison 分享了一种结合 Ollama 本地模型的部署方案。思路很简单,就是让 OpenClaw 负责任务调度,并连接 Telegram 这类聊天工具。由 Ollama 在本地运行模型,例如 Ministral-3:3b。这样一来,OpenClaw 可以全天候运行,而无需担心不断上涨的 Token 成本。

部署流程也很简单。首先,在一台长期在线的电脑上安装 OpenClaw,然后安装 Ollama,并下载一个轻量级开源模型,例如 Ministral-3:3b,或 DeepSeek、Qwen 。接着,在 OpenClaw 的配置中将服务提供方切换为 Ollama,并设置好默认模型。完成这些步骤后,通过 Telegram 机器人接入,你就可以直接在聊天窗口中指挥它执行各类任务。

关键在于,将默认模型从 OpenAI API 切换为 Ollama。本地模型接管推理后,就不再消耗外部 LLM 的 Token。当然,本地模型也有其局限。模型规模越大,对硬件性能的要求越高。好在 OpenClaw 支持多模型切换,日常自动化任务、文本处理和简单决策,可以交由小体量的本地模型。而编程、深度研究等复杂任务,再按需切换到更强大的云端模型。这样既能控制成本,又能兼顾性能。

相关文章

互动讨论

评论区

围绕《用 Ollama 本地部署 OpenClaw,让 AI 7x24 免费为你工作!》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。