在注重代码隐私与离线开发的场景中,OpenCode(终端AI编程助手)与Ollama(本地大模型引擎)的组合提供安全、高效、完全自主的智能编程解决方案。 在线模型要考虑成本和隐私两方面问题,而且有时候其实完全用在线模型完成所有任务,会导致大家的古法编程技能衰退,说实话,我现在古法编程就很少了,很明显有时候会想不起来一些当初写过的东西是怎么写的来着。 之前写了一篇关于OpenCode + Ollama的本地AI编程环境搭建指南,但是那会用的模型过于简单,没有说得太细致,现在试了一些新模型,正好更新一下。本文依据官方文档整理配置与使用流程。
一、环境准备与安装
第一步肯定还是安装 Ollama,现在 Ollama 官方给每个系统都提供了命令行安装的途径,不过这可能需要比较独特的网络访问,大家自行解决吧。
1. 安装Ollama
- Windows(PowerShell):
powershell irm https://ollama.com/install.ps1 | iex - Linux/macOS(终端):
bash curl -fsSL https://ollama.com/install.sh | sh验证安装:ollama --version
2. 安装OpenCode
OpenCode 现在也提供了一个桌面版本,不过我还是更推荐命令行版本,毕竟命令行版本更轻量,而且可以随时随地进行开发,远程访问就非常方便。
命令行版本的安装方式有很多,咱们还是经典的脚本来安装:
curl -fsSL https://opencode.ai/install | bash
然后再验证安装:opencode --version
OpenCode用的模型最好是支持较大上下文窗口的(建议≥32k tokens)。
这时候先不要急着配置,因为OpenCode的模型选择和Ollama的模型选择是分开的,所以需要先配置Ollama。
二、模型选择与硬件适配
Ollama模型运行主要依赖GPU显存(无GPU时使用系统内存,性能显著降低)。根据设备能力选择模型:
| 模型 | 特点 | 推荐硬件 | 拉取命令 |
|---|---|---|---|
| lfm2.5-thinking | 轻量级(<1GB),思维链优化,CPU友好 | 笔记本什么的就可以 | ollama pull lfm2.5-thinking |
| qwen3:4b-instruct-2507 | 也是比较轻量级 | ≥6GB显存 | ollama pull qwen3:4b-instruct-2507 |
| qwen3.5:4b | 通用对话与编程,比较新的模型 | ≥6GB显存 | ollama pull qwen3.5:4b |
| translategemma:4b | 专业多语言翻译 | ≥6GB显存 | ollama pull translategemma:4b |
| gpt-oss:20b | 大型项目深度分析 | ≥16GB显存 | ollama pull gpt-oss:20b |
重要说明: - lfm2.5-thinking 体积不足1GB,低配置设备可流畅运行 - 模型下载需联网,运行阶段完全离线 - 显存不足时自动降级至CPU模式,响应速度下降
三、配置连接
方式一:一键配置(推荐)
# 通过 Ollama 启动 OpenCode 生成配置
ollama launch opencode --config
然后就可以按照提示进行模型选择等配置了。
方式二:手动配置
编辑 ~/.config/opencode/opencode.json,注意这里面写的模型名称需与ollama pull命令完全一致:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"options": { "baseURL": "http://localhost:11434/v1" },
"models": {
"lfm2.5-thinking": { "name": "lfm2.5-thinking" },
"qwen3:4b-instruct-2507": { "name": "qwen3:4b-instruct-2507" },
"qwen3.5:4b": { "name": "qwen3.5:4b" }
}
}
}
}
四、核心使用流程
1. 启动与项目初始化
mkdir my-project && cd my-project
opencode
在OpenCode交互界面中输入:
/init
该命令执行以下操作:
- 在当前目录创建 .opencode 隐藏文件夹(存储项目代码索引与会话数据)
- 生成 AGENTS.md 配置文件(定义项目中AI智能体的角色分工与协作规则)
- 完成项目上下文初始化,使后续对话精准理解项目结构与需求
然后还可以切换模型:
/models
就弹出了各种可选的模型了
2. 交互操作示例
- 创建功能:
创建带表单验证的登录页面→ 生成完整HTML/CSS/JS文件 - 代码解析:
解释 @src/auth.js 的认证逻辑(@引用项目内文件路径) - 常用指令:
- Tab键:切换 Plan(规划)/ Build(构建)模式
/undo:撤销上一步变更/share:生成会话分享链接- 脚本调用:
opencode -p "修复空指针异常"
3. 安全机制
- 敏感操作(如执行shell命令)默认需人工确认
- 严格遵循项目
.gitignore规则,避免索引无关文件 - 所有文件修改操作可追溯,支持即时撤销
五、能力补充说明
当本地硬件资源受限或需更强能力(如图片理解、超长上下文处理)时,可考虑专业云端服务作为补充方案:
阿里云百炼 Coding Plan 提供专为编程优化的模型服务,与OpenCode等工具兼容。
注意:云端方案涉及代码上传,需根据项目敏感度评估使用。
CycleUser