
【deepseek】利用deepseek+cherry构建高效本地知识库
项目简介本项目旨在开发一个高效、准确且用户友好的智能问答系统。该系统利用先进的向量化技术和深度学习模型来理解和回答用户的提问。通过整合多个模块的功能,系统能够从大量结构化或非结构化的数据中快速找到相关信息,并以自然语言的形式提供答案。项目流程用户通过“cherry”模块提交问题。提问被导入到“知识库”。知识库中的数据被转换为向量形式,并存储在“向量库”中。“cherry”模块对“向量库”进行查询,
项目简介
本项目旨在开发一个高效、准确且用户友好的智能问答系统。该系统利用先进的向量化技术和深度学习模型来理解和回答用户的提问。通过整合多个模块的功能,系统能够从大量结构化或非结构化的数据中快速找到相关信息,并以自然语言的形式提供答案。
项目流程
业务流程
用户提问:
用户通过“cherry”或“AnythingLLM”(本次未详细描述)模块提交问题。
数据导入:
提问被导入到“知识库”。
向量化处理:
知识库中的数据被转换为向量形式,并存储在“向量库”中。
向量查询:
“cherry”模块对“向量库”进行查询,获取相关的信息。
整合数据:
将原始问题、向量表示和相关知识整合在一起。
推理过程:
整合后的数据被传递到“ollama”模块进行推理。
输出结果:
推理结果被发送到多个下游应用,如“deepseek-r1”、“llama”和“qwen”。
基于Cherry Studio搭建
基于本地的deepseek搭建个人知识库。使用本地服务,安装嵌入模型,用于将文本数据转换为向量标识的模型。
#命令行窗口执行拉取下即可。
ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd...100% ▕███████████████████████ 1.2 GB
pulling a406579cd136... 100%▕███████████████████████ 1.1 KB
pulling 0c4c9c2a325f... 100% ███████████████████████ 337 B
verifying sha256 digest
writing manifest
success
请根据您的具体环境下载Cherry Studio。确保选择与您的操作系统和配置相匹配的版本,以便顺利安装和使用。这样可以保证您获得最佳的使用体验,并充分利用Cherry Studio提供的所有功能。
安装时请选择非C盘的磁盘,避免占用系统盘空间,这有助于提升软件性能,确保Cherry Studio运行更加流畅。
本地模型知识库
配置本地ollama
操作步骤:
1. 找到左下角的设置图标并点击。
2. 从菜单中选择“模型服务”选项。
3. 在模型服务中选择“ollama”。
4. 点击“管理”按钮。
5. 点击模型后面的加号以自动检测并添加本地已安装的模型。
6. 显示减号表示该模型已被选中。
知识库配置
-
选择知识库
-
选择添加
-
选择嵌入模型
-
填写知识库名称
添加知识文档
cherry可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。
-
点击搜索知识库
-
输入搜索顺序
-
点击搜索 大家可以看下我搜索的内容和并没有完全匹配,不过已经和意境关联上了。
大模型处理
-
点击左上角的聊天图标
-
点击助手
-
点击默认助手(你也可以添加助手)
-
选择大模型
-
选择本地deepseek,也可以选择自己已经开通的在线服务
-
设置知识库(不设置不会参考)
-
输入提问内容
-
发问
可以看到deepseek已经把结果整理了,并告诉了我们参考了哪些资料。
更多推荐
所有评论(0)