Void+Ollama+Qwen3-4B-2507构建本地离线AI辅助开发环境
Post in
周一 11 八月 2025
之前的文章介绍了Void 编辑器, 又介绍了基于 Ollama 的 Qwen3-4B-2507 模型部署,这个模型特别轻量级,甚至可以在千元红米手机上流畅运行 …
之前的文章介绍了Void 编辑器, 又介绍了基于 Ollama 的 Qwen3-4B-2507 模型部署,这个模型特别轻量级,甚至可以在千元红米手机上流畅运行 …
昨天千问发布了最新的Qwen3-4b-Instruct-2507 和Qwen3-4b-Thinking-2507 模型,有如下两个亮点:
- Qwen3-4B-Instruct-2507 的通用能力超越了商业闭源的小尺寸模型 GPT-4.1-nano,与中等规模的 Qwen3-30B-A3B …
昨天千问发布了最新的Qwen3-4b-Instruct-2507 和Qwen3-4b-Thinking-2507 模型,有如下两个亮点:
- Qwen3-4B-Instruct-2507 的通用能力超越了商业闭源的小尺寸模型 GPT-4.1-nano,与中等规模的 Qwen3-30B-A3B …
OllamaModelManager 是一个图形化界面工具,用于快速导出导入已经下载好的Ollama模型,新加了一个功能,可以更新和删除模型了。
去年就写过一个 …
一直以来,我都痴迷于本地模型。
一方面是我所在地区的网速实在不理想,另一方面是我不太信任云服务。
最近好像有个消 …
本指南介绍如何使用 llama.cpp 和 Ollama 部署 Qwen3-Coder-30B-A3B-Instruct 模型。
Page 1 / 1