使用 LLaMA-Factory 微调自定义数据并加载对话的完整流程
本文将详细介绍如何使用 LLaMA-Factory 对本地自定义数据进行模型微调,并将微调后的模型导出为 GGUF 格式,最终通过 Ollama 加载运行。整 …
CycleUser本文将详细介绍如何使用 LLaMA-Factory 对本地自定义数据进行模型微调,并将微调后的模型导出为 GGUF 格式,最终通过 Ollama 加载运行。整 …
本地环境的模型搭建和微调是一个复杂的过程,涉及多个组件的安装和配置。本文将介绍如何使用 Ollama、OpenWebUI 和 LlamaFactory 来搭建一个 …
很多朋友可能也在用Ollama来下载和管理模型,下载速度还不错,而且功能也简便,最新版本的Ollama更是提供了一个简洁的GUI,可以直接选择模型对话,还能地对模型下载位置 …
大模型的使用,如果仅局限于简单对话,其实是很难发挥出全部效用的,也很难构成完整的生产力。
组织和编排才是更高效 …
现在本地部署的大模型,有可能有一个问题,就是经常是是“真空中的模型”,不具备当前环境的“感知”,很难用于回答与本机与 …
上次的小模型批量测试对于需要速度的场景来说也就是可以看个乐,对于需要质量的情况来说,可能就完全不够看了,毕 …
谷歌最近刚发了gemma3:0.27b,也就是gemma3:270m的版本,这个可是比qwen3:0.6b还要轻量级很多。 这个版本的在线测评倒是不少了,但正如之前咱们谈论过的,在线 …
前些天,在千问的一个官方群里,有朋友询问4060笔记本显卡是否能够运行gpt-oss:20b模型,群里的一些朋友表示这几乎是不可能的。 类似地,之前关于Void编辑器搭配本地模型的一篇文章中也有读者 …
之前的文章介绍了Void 编辑器, 又介绍了基于 Ollama 的 Qwen3-4B-2507 模型部署,这个模型特别轻量级,甚至可以在千元红米手机上流畅运行 …
昨天千问发布了最新的Qwen3-4b-Instruct-2507 和Qwen3-4b-Thinking-2507 模型,有如下两个亮点:
- Qwen3-4B-Instruct-2507 的通用能力超越了商业闭源的小尺寸模型 GPT-4.1-nano,与中等规模的 Qwen3-30B-A3B …
Page 1 / 2 »