Ollama 更改镜像源,通过魔搭拉取模型

当前比较流行使用Ollama部署本地大模型,但是由于资源问题,经常会遇到下载速度很慢或下载不成功的问题。国内知名镜像源并没找到相应的镜像。以下介绍通过魔搭社区的模型库拉取大模型的方法:

ModelScope2Registry 是 Ollama 到 ModelScope 的模型 Registry 镜像站 / 加速器,它为 ModelScope 补齐更多了 Ollama Registry Manifests 信息,使 Ollama 能够从 ModelScope 魔搭 更快的 拉取 / 下载 模型。

Ollama 本地部署教程可参考:Ollama 本地部署DeepSeek模型,并通过ChatBox调用

1.选择模型

访问魔搭社区模型库:https://www.modelscope.cn/models

选择要部署的大模型(请选择带有 GGUF 模型的仓库)
以Qwen2.5-7B为例:
在这里插入图片描述

2.拉取模型.

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf

这将能够拉取 https://www.modelscope.cn/models/qwen/Qwen2.5-7B-Instruct-gguf 中的模型,对于不带有标签或 latest 将依次按顺序尝试选择Q4_K_M、Q4_0、Q8_0量化。

最近比较火的DeepSeek大模型:

ollama run modelscope2ollama-registry.azurewebsites.net/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF

注:通常此步骤即可完成拉取并部署本地模型的工作,如果对大模型有更深入的了解,可以继续执行后面两个步骤。

3.指定量化

可以通过 tag 指定选择的量化:

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf:Q8_0

这将能够拉取 https://www.modelscope.cn/models/qwen/Qwen2.5-7B-Instruct-gguf/resolve/master/qwen2.5-0.5b-instruct-q8_0.gguf ,量化类型标签不区分大小写,你可以在 这里 查看 Ollama 支持的量化。

仓库中需要包含带有正确格式文件名的 GGUF 文件(模型名称以“-”分隔,最后一位需要为有效的量化类型,形如:model-quant.gguf),暂不支持包含类似 0000x-of-0000x 的切分后的模型。

4.指定模板

若对话模板未能正确识别或识别有误导致对话输出异常,你可以尝试在标签后添加–为模型指定对话模板:

ollama run modelscope2ollama-registry.azurewebsites.net/qwen/Qwen2.5-7B-Instruct-gguf:Q8_0--qwen2

你可以查看 Ollama 官方支持的模板,和 魔塔支持的模板,以手动指定更加合适的模板。

Logo

尧米是由西云算力与CSDN联合运营的AI算力和模型开源社区品牌,为基于DaModel智算平台的AI应用企业和泛AI开发者提供技术交流与成果转化平台。

更多推荐