Void:可以用Ollama运行本地模型辅助编程且开源免费的本地化Cursor平替
Post in
周二 05 八月 2025
一直以来,我都痴迷于本地模型。
一方面是我所在地区的网速实在不理想,另一方面是我不太信任云服务。
最近好像有个消 …
一直以来,我都痴迷于本地模型。
一方面是我所在地区的网速实在不理想,另一方面是我不太信任云服务。
最近好像有个消 …
本指南介绍如何使用 llama.cpp 和 Ollama 部署 Qwen3-Coder-30B-A3B-Instruct 模型。
« Page 2 / 2