
本文已同步发布到微信公众号「人言兑」
👈 扫描二维码关注,第一时间获取更新!
在
Ollama命令速查指南
这篇文章中把 Ollama 的命令过了一遍,中间提到了 ollama launch 这个功能,但只是带了一句。最近抽空把几个主流 Ollama integration 都试了一下,单独写一篇笔记,主要记录 Codex、Claude Code、Hermes Agent、OpenClaw、VS Code 这几个工具怎么和 Ollama 搭在一起用。
关于 ollama launch,Ollama v0.15+ 引入了这个新命令,可以用本地或云端模型,自动完成 Claude Code、OpenCode、Codex 等常用编码工具的配置与启动,不需要手动改环境变量或写配置文件。它的核心价值在于「一条命令,帮你装好、配好、启动好」,后面介绍每个工具的时候基本都会用到它。
想用Ollama本地模型联动Codex、VS Code等工具,却不懂配置?本文详解5款主流Ollama生态集成工具的实操步骤,借助ollama launch命令一键搞定配置,搭配 Ollama 使用教程 ,新手也能轻松实现本地模型与工具无缝衔接。
文章里用到的模型统一用 qwen3.5:9b(换成其他模型也可以,道理一样),本地跑需要大约 5-10GB 内存。
Ollama 本身是一个“模型运行器”。你装好它、拉一个模型下来,可以在终端里对话,也可以调它的 API。但真实开发场景里,可能你想:
这些“专门的 AI 助手”就是生态集成工具。它们各自有不同的侧重点:
还有更多,这里不过多介绍,详情可以查看官方文档: https://docs.ollama.com/integrations
这些工具默认情况下,背后用的是各家公司的云端模型(比如 OpenAI 的 GPT、Anthropic 的 Claude),需要付费、需要 API key、你的代码和对话也会传到云端。
Ollama 的集成作用就是:把这些工具的后台偷偷换成你本地跑的模型。你依然可以用工具本身的界面和功能,但底层的“脑子”换成 qwen3.5:9b 或者任何你喜欢的本地模型。不用花钱、不用联网、数据留在自己电脑上。
Codex 是什么?
Codex 是由 OpenAI 开发的下一代全能型AI编程代理(AI Coding Agent),旨在从单纯的“代码补全”转向自主完成整个开发任务。它通过理解自然语言指令,结合对代码库的深入上下文分析,自主进行编写、修复、测试和提交代码等工作。
目前 Codex 具备以下核心能力:
Codex 可以做什么?
Codex 能够完成复杂的软件工程任务,包括:
Codex 已面向多个 OpenAI 方案(如 ChatGPT Plus, Enterprise, Team)开放,且部分工具已支持免费使用。
用 Ollama 怎么替代 Codex 默认模型的?
Ollama 提供了一个兼容层,让 Codex 以为自己在和 OpenAI 的 API 对话,实际上请求发给了 http://localhost:11434 上的本地模型。
两种启动方式:
方式一(手动):
codex --oss -m qwen3.5:9b
这个 --oss 参数什么意思?OSS 是 Open Source Software 的缩写,--oss 告诉 Codex:“不要用默认的 OpenAI 云端模型,改用本地或第三方的开源模型”。后面 -m qwen3.5:9b 指定具体的模型名字。注意 Ollama 的模型名要写全(可以用 ollama list 查看)。
用 codex --oss 启动,强制对接本地的开源模型,不走 OpenAI 的云端。Ollama 在 2026 年 1 月的官方公告里明确支持了这个模式,Codex 可以读取、修改和执行工作目录下的代码,使用本地模型作为后端。
方式二(Ollama launch):
ollama launch codex --model qwen3.5:9b
ollama launch 会帮您自动设置环境变量、拉起 Codex 并选好模型。
进入 Codex 的交互界面后(通常会出现一个 > 提示符),你可以输入:
> 写出一个 Python 函数,判断一个数是不是素数
模型会生成代码,并且 Codex 还会额外添加一些解释。
Claude Code 是什么?
Claude Code 是由 Anthropic 开发的终端Agentic Coding(智能体编程)助手。它运行在本地终端,能理解整个代码库,自主执行读写文件、运行Shell命令、操作Git、利用MCP工具等复杂任务。它不仅提供建议,更像一位真正的“程序员”帮你完成端到端开发,显著提升编码和自动化运维效率。
Claude Code 可以做什么:
与传统Chatbot不同,Claude Code 特别适合需要理解上下文的大型工程项目,能够帮你“思考”并实际执行操作。
不通过 Ollama 怎么用?
需要 Anthropic API key,按 token 付费,而且 Claude 模型本身不免费。
用 Ollama 怎么替代?
Ollama 提供了一个假的 Anthropic API 端点,让 Claude Code 以为自己连上了 Claude 的服务,实际上是在和本地模型对话。
启动方式:
ollama launch claude --model qwen3.5:9b
第一次运行会安装 Claude Code 本体,然后弹出一个配置界面。你只需要确认模型选 qwen3.5:9b,其他一路回车就行。
之后 Claude Code 会在当前目录下启动,界面像一个聊天框。你可以输入:
/loop 检查所有 Python 文件里是否有 TODO 注释
它会自己去扫文件、返回结果。
注意:Claude Code 非常依赖模型的工具调用能力。qwen3.5:9b 支持基本的 tool calling,但如果遇到复杂任务(修改多个文件、执行 git 命令),可能需要更大或更专门的模型(比如 qwen2.5-coder:14b)。本地试验的话,建议先用简单任务试试水。
Hermes Agent 是什么?
Hermes Agent 是由 Nous Research 开发的开源自主AI智能体平台(Agent Framework),主打“自进化”与“自主权”。它能够实现跨会话持久记忆、自主学习新技能(Skill)以及多平台协作。该平台运行在用户本地或私有服务器,不仅能聊天,更能作为一个具备终端、浏览器等工具调用能力的“数字打工人”,随着使用时间的增长愈发理解用户习惯。
Hermes Agent 能做什么?
应用场景示例
Hermes Agent 接近于一个“可运行的智能体工作操作系统”,不仅适合个人提升效率,也适合企业快速构建定制化、可自我改进的AI助手。
不通过 Ollama 怎么用?
Hermes 默认支持多种模型后端(包括 OpenAI、Groq 等),也支持 Ollama。你可以手动配置它的 config.yaml 指向 http://localhost:11434。但手动配置很麻烦。
用 Ollama 怎么简化?
这个命令会自动安装 Hermes、跑配置向导。向导里会让你选模型,你选 qwen3.5:9b,然后选择要不要接入 Telegram 或 Discord。一路回车,最后它会启动一个 Web 控制台。
实际能干什么?
系统要求:Hermes 需要 Node.js 18+,内存至少 4GB(不算模型)。Windows 用户最好装 WSL2 再跑。
OpenClaw 是什么?
OpenClaw 是一款基于 TypeScript 开发的开源、高可扩展AI Agent(智能体)框架,Logo是一只红色龙虾,所以也被大家叫做小龙虾。它不仅能聊天,更核心的能力是自主拆解任务、操控电脑(浏览器/本地应用/Shell指令)并调用软件,被称为运行在本地的“数字生命中枢”或AI管家,旨在实现工作流和日常任务的自动化。
OpenClaw 可以做什么?
简单来说,OpenClaw 可以把AI从“聊天室”带入到“真实的工作环境中”,成为执行任务的“手脚”。
不通过 Ollama 怎么用?
OpenClaw 本身只是个网关,需要后端连一个 AI 模型。它可以连 OpenAI 的 API,也可以连 Ollama 的本地模型。
用 Ollama 启动:
ollama launch openclaw --model qwen3.5:9b
启动后会让你配置要连接哪些聊天软件。比如你想接 Telegram:
/start之后在 Telegram 上发任何消息,OpenClaw 都会拿去问 qwen3.5:9b,然后把回复发回来。
另一个用法:ollama launch openclaw 默认会启动一个终端里的聊天界面,你可以在电脑上直接和它对话,不接任何消息软件。适合先测试模型效果。
注意:OpenClaw 需要 Node.js 20+。如果你只是想本地对话,其实 Ollama 自己的 ollama run 就够了,没必要用 OpenClaw。OpenClaw 主要优势是跨平台桥接。
VS Code 集成是什么?
不是新工具,就是 VS Code 编辑器自带的 GitHub Copilot Chat 功能。你可以在侧边栏打开一个聊天窗口,问代码相关的问题,Copilot 会回答。而且 Copilot 免费版就支持选择不同的模型。
为什么要用 Ollama 的集成?
Copilot 默认用的模型是 OpenAI 的(或 GitHub 自托管的)。你想换成本地模型,可以在 Copilot Chat 的设置里添加一个“Ollama”来源。
最简单的方式:
ollama launch vscode --model qwen3.5:9b
这个命令会打开 VS Code(如果你没装 VS Code 它会提示你自己去下载安装),然后自动在 Copilot Chat 里注册本地模型。你只需要在聊天窗口右下角的下拉菜单里,把模型从 “GPT-4o” 切换到 “Ollama / qwen3.5:9b” 就可以了。
手动配置(不靠 ollama launch):
Cmd+Shift+P (Mac) 或 Ctrl+Shift+P (Win)能做什么?
注意:VS Code 的 Copilot Chat 在第一次使用时需要登录 GitHub 账号(免费),之后就不再需要网络了(只要你用的是本地 Ollama 模型)。
Q1:我用 ollama launch codex 之前,需要先自己装 codex 吗?
Ollama launch 会自动帮你安装(如果检测到没装)。但前提是你的系统里有 npm 或者 pip(取决于具体的工具)。如果自动安装失败,它会提示你手动安装的命令。
Q2:直接运行 codex 和 codex --oss -m qwen3.5:9b 有什么区别?
直接 codex 会尝试用 OpenAI 的云端模型。codex --oss -m xxx 强制使用本地模型(通过 Ollama 的 API),不收费、无网络。
Q3:有些工具需要 64k 上下文,你的模型默认只有 4k-8k,怎么办?
运行模型时设置环境变量:
OLLAMA_CONTEXT_LENGTH=65536 ollama run your-model-name
或者修改 Ollama 服务的环境变量。不过 64k 上下文消耗的内存会翻好几倍,16GB 内存的机器可能会爆。
Q4:我试了 ollama launch xxx,提示“command not found: ollama”
说明 Ollama 没装好,或者没加到 PATH。先确认 ollama -v 能正常输出。如果是在 Windows PowerShell 里,可能需要重新打开终端。
Q5:这些工具里面哪个最适合新手?
单纯想体验“本地模型当 AI 助手”,最简单的是 VS Code 集成。不用额外装任何东西(除了 Ollama 和 VS Code 本身),在聊天窗口里就能用。其次是 Codex,终端里打字也比较直观。Claude Code 和 Hermes 有一定门槛,建议先熟悉前两个再尝试。
以上就是5款主流工具与Ollama的完整集成实操,借助ollama launch命令可大幅简化配置,实现本地模型的多场景复用。如需搭建本地模型基础环境,可参考 本地部署AI大模型完全指南 ;想优化模型性能,可查看 Ollama量化全指南 ,也可通过 Ollama HTTP API实操手册 拓展开发能力,用 Ollama Modelfile 完全指南 定制专属模型。