手把手教你创造你的本地私人 ChatGPT(上):本地大模型 Ollama
Ollama 是一款强大的本地大模型运行工具,可以帮助你轻松下载和运行各种 LLM 模型,而无需将数据上传到云端。通过 Ollama,你可以生成创意内容、翻译语言、构建问答系统、聊天机器人等等。Ollama 的安装和使用非常简单,只需几个命令即可完成。如果你想体验 LLM 的强大功能,不妨试试 Ollama 吧!
如何快速安装和使用本地大模型 Ollama
Ollama 是什么?
近年来,人工智能技术发展迅猛,其中大型语言模型(LLM)的进步尤为引人注目。LLM 拥有海量的参数和强大的学习能力,能够执行各种复杂任务,例如生成文本、翻译语言、编写不同类型的创意内容等等。以往,想要体验 LLM,通常需要将模型部署到云端,这对于个人用户来说门槛较高,且成本不菲。现在,Ollama 的出现打破了这一限制。
Ollama 是一款开源工具,旨在将 LLM 的强大功能带到你的本地机器。通过 Ollama,可以轻松下载和运行各种 LLM 模型,而无需将数据上传到云端。
Ollama 有哪些优势?
-
- 本地部署,数据安全:Ollama 将 LLM 模型部署在你的本地机器上,无需将数据上传到云端,数据安全更有保障。
-
- 降低成本:与云端部署相比,使用 Ollama 可以显著降低 LLM 的使用成本。
-
- 离线使用:Ollama 支持离线使用,即使没有网络连接也能照常使用 LLM。
-
- 易于使用:Ollama 提供了易于使用的命令行界面和 API,即使是初学者也能快速上手。
Ollama 可以做什么?
Ollama 的应用场景非常广泛,以下是一些示例:
-
- 生成创意内容:你可以使用 Ollama 生成诗歌、代码、脚本、音乐作品、电子邮件、信件等创意内容。
-
- 翻译语言:你可以使用 Ollama 将文本从一种语言翻译成另一种语言。
-
- 问答系统:你可以构建一个问答系统,使用 Ollama 来回答用户的问题。
-
- 聊天机器人:你可以构建一个聊天机器人,使用 Ollama 来与用户进行对话。
Ollama 如何安装
Ollama 的安装非常简单,只需执行以下命令即可,支持跨平台(MacOS、Linux):
- ounter(line
$ curl -sSL https://raw.githubusercontent.com/zmicro-design/package-ollama/master/install | sh -s -- ONE_LINE
如果你已经安装 zmicro,可以直接使用更简单的命令安装:
$ zmicro package install ollama
ℹ [2024-05-10 07:47:02][package::install] ollama(latest) ...ℹ [2024-05-10 07:47:02][package][ollama] preparing ...ℹ [2024-05-10 07:47:02][package][ollama] os: macosℹ [2024-05-10 07:47:02][package][ollama] arch: arm64ℹ [2024-05-10 07:47:02][package][ollama] kernel: Darwinℹ [2024-05-10 07:47:02][package][ollama] platform: darwinℹ [2024-05-10 07:47:02][package][ollama] usr_bin_dir: /usr/local/binℹ [2024-05-10 07:47:02][package][ollama] source_bin_file: ./ollamaℹ [2024-05-10 07:47:02][package][ollama] url: https://github.com/ollama/ollama/releases/download/v0.1.32/ollama-darwinℹ [2024-05-10 07:47:02][package][ollama] tmp_dir: /var/folders/88/9b91n80970b8ywvz4cvjd0b00000gn/T/tmp.l4EafgDm/package-ollamaℹ [2024-05-10 07:47:02][package][ollama] tmp_file: ollamaℹ [2024-05-10 07:47:02][package][ollama] downloading ...######################################################################## 100.0%ℹ [2024-05-10 07:47:09][package][ollama] installing ...ℹ [2024-05-10 07:47:09][package][ollama] cleaning ...✔ [2024-05-10 07:47:09] succeed to install ollama.ℹ [2024-05-10 07:47:09] alias => ollama ...✔ [2024-05-10 07:47:09][package::install][done] ollama(v1.0.1) ...
其他安装方法请查看:ollama.com/download
安装完成后,你可以通过以下命令验证 Ollama 是否安装成功:
$ ollama --version
Warning: could not connect to a running Ollama instanceWarning: client version is 0.1.32
Ollama 如何使用
$ ollama --help
Large language model runner
Usage: ollama [flags] ollama [command]
Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model pull Pull a model from a registry push Push a model to a registry list List models cp Copy a model rm Remove a model help Help about any command
Flags: -h, --help help for ollama -v, --version Show version information
Use "ollama [command] --help" for more information about a command.
启动服务
- 注意:这个服务必须先启动,否则无法使用 Ollama 运行模型。
$ ollama serve
time=2024-05-10T07:53:31.120+08:00 level=INFO source=images.go:817 msg="total blobs: 0"time=2024-05-10T07:53:31.122+08:00 level=INFO source=images.go:824 msg="total unused blobs removed: 0"time=2024-05-10T07:53:31.123+08:00 level=INFO source=routes.go:1143 msg="Listening on 127.0.0.1:11434 (version 0.1.32)"time=2024-05-10T07:53:31.125+08:00 level=INFO source=payload.go:28 msg="extracting embedded files" dir=/var/folders/88/9b91n80970b8ywvz4cvjd0b00000gn/T/ollama551924114/runnerstime=2024-05-10T07:53:31.158+08:00 level=INFO source=payload.go:41 msg="Dynamic LLM libraries [metal]"
下载模型
$ ollama pull llama2-chinese:13b
运行模型
$ ollama run llama2-chinese:13b
>>> Send a message (/? for help):
查看已经下载的模型
$ ollama list
NAME ID SIZE MODIFIED llama2:latest 78e26419b446 3.8 GB 2 months agollama2-chinese:13b 990f930d55c5 7.4 GB 2 months ago
删除不用的模型
$ ollama rm llama2:latest
Ollama 支持哪些模型?
-
Ollama 已经支持
-
- Meta 的 LLaMA3 大模型
-
- Google Gemini 的开源版本 Gemma
-
- 阿里云通义千问大模型 Qwen
-
以下是 Ollama 支持的社区最火的模型列表:
Model | Parameters | Size | Download |
---|---|---|---|
Llama 3 | 8B | 4.7GB | ollama run llama3 |
Llama 3 | 70B | 40GB | ollama run llama3:70b |
Phi-3 | 3.8B | 2.3GB | ollama run phi3 |
Mistral | 7B | 4.1GB | ollama run mistral |
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
LLaVA | 7B | 4.5GB | ollama run llava |
Gemma | 2B | 1.4GB | ollama run gemma:2b |
Gemma | 7B | 4.8GB | ollama run gemma:7b |
Solar | 10.7B | 6.1GB | ollama run solar |
更多模型请查看:ollama.com/library
利用 Ollama 运行 llama3
注意:在运行 llama3 之前,请确保已经启动 Ollama 服务,也就是执行
ollama serve
命令,不要关掉终端窗口,其他命令在新的终端窗口执行。
安装并运行 Meta 的 LLaMA3 大模型
$ ollama run llama3
pulling manifest pulling c1864a5eb193... 100% ▕██████████████████████████████████████████████████████████▏ 1.7 GB pulling 097a36493f71... 100% ▕██████████████████████████████████████████████████████████▏ 8.4 KB pulling 109037bec39c... 100% ▕██████████████████████████████████████████████████████████▏ 136 B pulling 22a838ceb7fb... 100% ▕██████████████████████████████████████████████████████████▏ 84 B pulling 887433b89a90... 100% ▕██████████████████████████████████████████████████████████▏ 483 B verifying sha256 digest writing manifest removing any unused layers success
终端对话
下载完成后,可以直接在终端进行对话,比如提问“React 是什么?”
>>> React 是什么?
输出结果如下:
React 是一个 JavaScript 库,用于构建用户界面(UI)的组件。它由 Facebook 在 2013 年发布,并且现在是 React.js 的维护者。
React 的主要目标是使开发人员更容易地创建可维护、可复用的 UI 组件。它提供了一系列的特性和工具来帮助您构建 complex 用户界面:
1. **组件化**:将 UI 组件分解成小的、独立的组件,每个组件负责一部分的UI逻辑。2. ** Virtual DOM**:React 会维护一个虚拟的DOM(Document Object Model),这个虚拟DOM 是实际DOM 的一种抽象表示。这样可以提高性能,因为 React 只需要更新虚拟DOM,而不是实际DOM。3. **JSX**:React 提供了 JSX 语法,这是一个 JavaScript 和 XML 的混杂语法,用于在 JavaScript 中编写 UI 组件的HTML-like结构。4. **State 和 Props**:React 维护着每个组件的状态(state)和属性(props),这些信息会被传递给子组件或父组件。5. **Lifecycle 方法**:React 提供了一系列的生命周期方法,用于在组件的创建、更新或销毁等阶段执行某些操作。
使用 React,你可以更好地管理你的 UI 组件,并且可以将它们组合成 complex 的用户界面。同时,React 也提供了许多实用的插件和工具,帮助您提高开发效率和质量! 🔥
总结
Ollama 是一款强大的本地大模型运行工具,可以帮助你轻松下载和运行各种 LLM 模型,而无需将数据上传到云端。通过 Ollama,你可以生成创意内容、翻译语言、构建问答系统、聊天机器人等等。Ollama 的安装和使用非常简单,只需几个命令即可完成。如果你想体验 LLM 的强大功能,不妨试试 Ollama 吧!
如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
更多推荐
所有评论(0)