OpenCode + Ollama:完全本地的AI编程环境搭建指南 2.0 版本
在注重代码隐私与离线开发的场景中,OpenCode(终端AI编程助手)与Ollama(本地大模型引擎)的组合提供安全、高效、完全自主的智能编程解决方 …
CycleUser在注重代码隐私与离线开发的场景中,OpenCode(终端AI编程助手)与Ollama(本地大模型引擎)的组合提供安全、高效、完全自主的智能编程解决方 …
大语言模型似乎很厉害,外行人如果不了解大模型,就可能会觉得这东西很神秘,很了不得,甚至担心什么天人降临统治人 …
现实世界的数据可能多种多样,有的离散,有的连续,有的取值非负,还有的可能有定和效应。货币交易数据,原则上有最小的 …
很多朋友可能也在用Ollama来下载和管理模型,下载速度还不错,而且功能也简便,最新版本的Ollama更是提供了一个简洁的GUI,可以直接选择模型对话,还能地对模型下载位置 …
大模型的使用,如果仅局限于简单对话,其实是很难发挥出全部效用的,也很难构成完整的生产力。
组织和编排才是更高效 …
现在本地部署的大模型,有可能有一个问题,就是经常是是“真空中的模型”,不具备当前环境的“感知”,很难用于回答与本机与 …
上次的小模型批量测试对于需要速度的场景来说也就是可以看个乐,对于需要质量的情况来说,可能就完全不够看了,毕 …
谷歌最近刚发了gemma3:0.27b,也就是gemma3:270m的版本,这个可是比qwen3:0.6b还要轻量级很多。 这个版本的在线测评倒是不少了,但正如之前咱们谈论过的,在线 …
前些天,在千问的一个官方群里,有朋友询问4060笔记本显卡是否能够运行gpt-oss:20b模型,群里的一些朋友表示这几乎是不可能的。 类似地,之前关于Void编辑器搭配本地模型的一篇文章中也有读者 …
Page 1 / 2 »