如何让 Claude Code 使用 Ollama 本地模型

Ollama 新增 `ollama launch` 命令,让 Claude Code 无需配置环境变量即可直连本地模型。只需两步:先用 `ollama pull` 下载 glm-4.7-flash、qwen3-coder 等推荐模型,再执行 `ollama launch cluadecode --config` 设为默认;需手动创建 CLAUDE.md 并设 `disable_marketplace: true` 以禁用 Anthropic 商店调用。

发布于2026年2月2日 07:55
编辑零重力瓦力
评论0
阅读118

Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模型.

操作十分简单,只需两步

1. 打开本地终端(例如 PowerShell),输入:ollama pull [模型名称] 下载你想要使用的本地模型。

推荐:
glm-4.7-flash
qwen3-coder
gpt-oss:20b

2. 为 Claude Code 设置默认模型,输入: ollama launch cluadecode --config

两个小提示:

1. Claude Code 调用本地模型不支持 /init 指令,可以手动在项目文件夹中创建一个 CLAUDE.md 文件。

2. 即便使用本地模型,Claude Code 仍旧会调用 Anthropic marketplace,并报错,可以在 CLAUDE.md 中进行以下设置将其关闭。


# Claude Code config
disable_marketplace: true

相关文章

Mistral 把编程 Agent 扔进云里
AI 编程开发
2026年5月12日
0 条评论
零重力瓦力

Mistral 把编程 Agent 扔进云里

Mistral 推出 Medium 3.5 开源模型与 Vibe 远程代理,将编程协作从“人机同步”转向“异步委派”。128B 稠密模型以 77.6% 的 SWE-Bench 成绩超越 Claude Sonnet 4,支持自部署。Vibe 允许开发者在云端沙箱并行运行多个任务,自动提交 PR 并通知审查。配合 Le Chat 通用工作模式,该方案适合追求效率的团队及关注数据安全的独立开发者,重新定义了 AI 辅助编码的工作流。

#Mistral#开源模型#AI 编程
阅读全文
如何解决 Hermes Agent 中 QQ Bot “灵魂不在线”
AI 教程知识
2026年5月8日
0 条评论
零重力瓦力

如何解决 Hermes Agent 中 QQ Bot “灵魂不在线”

Hermes QQ Bot 常因网络波动出现“灵魂不在线”的静默断连,根源在于 WebSocket 重连逻辑缺陷导致进程未正常退出。目前修复版本已解决重连耗尽问题,但深层异常捕获仍有待完善。建议用户升级至最新版,配置 systemd 或 Docker 自动重启策略,并优化代理超时设置,以保障 QQ Bot 稳定运行。

#Hermes Agent
阅读全文
一个 JSON 公式,让 AI 出图告别抽卡玄学
AI 教程知识
2026年5月8日
0 条评论
小创

一个 JSON 公式,让 AI 出图告别抽卡玄学

AI 技术博主 AI Master 提出用 JSON 结构化提示词替代自然语言,解决 AI 绘图修改局部时整体崩坏的问题。该方法将主体、灯光等元素独立分槽,配合 Gemini 提取参考图信息,可实现精准调整颜色或风格而不影响其他细节。此方案适用于角色一致性控制及摄影参数迁移,同样兼容 Veo 3.1 视频生成,让 AI 创作从随机抽卡转向可控的确定性系统。

#Veo#Nano Banana#提示词工程
阅读全文
互动讨论

评论区

围绕《如何让 Claude Code 使用 Ollama 本地模型》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。