首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

搭建一个属于自己的本地大模型AI知识库

  • 25-04-24 05:41
  • 3982
  • 13238
juejin.cn

大家好,我是蓝胖子的小叮当,今天分享的是如何搭建一个本地AI知识库,大家在阅读期间有任何的意见或建议都可以留言给我哈!

搭建一个本地知识库的意义在于可以利用大模型的能力加上自己的知识库,可以训练出一个符合自己业务和需求的大模型。

例如:我们在市面上的大模型AI中去提问JavaScript是什么,或者提问牛肉炒芹菜怎么做都可以获得很好的回答,但如果我们提问蓝胖子的小叮当是谁,得到的回答就不是我们想要的啦。同样的如果去提问一些关于自己积累的知识、公司的业务记录文档等,就很难帮助到我们啦。而本地部署大模型+知识库,就可以省去很多查找数据、资料的时间啦。

我采用的模型是deepseek,部署使用到的工具有ollama+docker+dify

1.安装ollama

下载地址:ollama.com/ 根据自己的操作系统选择对应的版本下载并安装

image.png 安装成功后打开命令终端输入ollama,出现下图则表示安装成功

image.png

2.安装大模型

在ollama官网选择Models,搜索deepseek,我这里选择的是deepseek-r1 image.png 点进来后如下图选择对应模型,越大对应的智能程度越高,这里的大小对应的是显存的大小哦,根据自己安装的机子的显存大小来选择,这里我选择的是8b,并点击右侧复制按钮 image.png 打开命令终端并运行复制下来的命令即可进行安装 image.png 安装完成后即可开始提问啦,后续想要再次提问也是打开命令终端输入上述命令进入提问哦 image.png 好啦 本地已经安装好大模型啦。

3.安装docker

下载地址:www.docker.com/ 根据自己的操作系统选择对应的版本下载并安装 image.png

4.安装dify

安装地址:github.com/langgenius/… 下载zip并解压,解压保存路径不要有中文 image.png 打开命令终端,执行下述命令

js
代码解读
复制代码
cd ./dify/dify-main/docker //进入解压包内的docker文件 cp .env.example .env //复制一份 docker compose up -d //执行docker命令

打开docker看到这一条,说明dify下载成功 image.png

5.安装bge-large

打开ollama官网选择Models搜索bge-large image.png 进入后复制命令 并在命令终端执行下载 image.png

6.安装dify配置大模型

浏览器打开http://localhost/signin 进入登录界面注册账号登录,登录后点击右上角个人中心选择设置 image.png 选择模型供应商找到ollama点击添加大模型,选择LLM,模型名称自定义,基础URL填写host.docker.internal:11434 其余不变,点击保存 image.png 再点击ollama添加大模型,选择Text Embedding,模型名称自定义,基础URL填写host.docker.internal:11434 其余不变,点击保存 image.png 看到如下图就表示添加成功 image.png tip:在上述添加大模型时有可能会出现保存无响应或添加失败的情况,大概率是dify中配置的问题,可尝试根据./dify/dify-main/docker/.env该路径找到.env文件(找不到的话可能有文件隐藏,根据不同的操作系统将隐藏文件显示出来),编辑文件添加ollama服务ip地址

js
代码解读
复制代码
CUSTOM_MODEL_ENABLED=true OLLAMA_API_BASE_URL=172.11.214.136:11434

image.png

7.创建知识库

dify主界面点击知识库,创建知识库 image.png 上传知识文档(我这里测试用的,上传了一个蓝胖子的小叮当的简短介绍的word),点击下一步到文本分段与清洗(这里先全部默认,后续有一定认知后再调整),点击下一步就可以处理并完成,点击到知识库就可以看到我们创建的知识库啦

image.png image.png

image.png

8.创建应用

dify主界面,点击工作室,点击创建空白应用 image.png 选择聊天助手,输入名称和描述,点击创建即可 image.png 在对话界面,首先添加我们刚创建的知识,然后提问就可以看到输出的是我们刚才导入文档中的内容啦 image.png 好啦,关于如何搭建一个属于自己的本地大模型AI知识库的流程就总结到这里,当然这里还有更多可供使用的知识点,大家可以慢慢探索哦,如果有什么疑问、意见或建议,都可畅所欲言,谢谢大家,我也将持续更新。

注:本文转载自juejin.cn的蓝胖子的小叮当的文章"https://juejin.cn/post/7484960608782729243"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

109
人工智能
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top