首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署

  • 25-03-03 08:02
  • 2222
  • 10352
blog.csdn.net

博客导读:

《AI—工程篇》

AI智能体研发之路-工程篇(一):Docker助力AI智能体开发提效​​​​​​​

AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署

AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署

AI智能体研发之路-工程篇(四):大模型推理服务框架Xinference一键部署

AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署

《AI—模型篇》

AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用

AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战

目录

一、引言

二、排坑后的Local-AI安装教程

1.docker安装及curl测试

2.解决AIO镜像无法从hf拉取模型的问题​​​​​​​

三、Local-AI前端

1.Home​编辑

2.Models

3.API

四、总结 


一、引言

今天开始写大语言模型推理服务框架的第三篇——LocalAI,前两篇见

​​​​​​​大语言模型推理服务框架—Ollama

大语言模型推理服务框架—Xinference

这个框架相比于前两篇,如果服务器没办法科学上网,学习和使用难度都要上一个台阶,花了几个小时踩了几个坑,将排坑后的内容分享给大家,如果大家觉得有用的话,希望获得您的关注、收藏、点赞及评论。

二、排坑后的Local-AI安装教程

1.docker安装及curl测试

  1. # 拉取LocalAI项目
  2. git clone https://github.com/mudler/LocalAI
  3. # 从hf-mirror.com镜像站下载luna-ai-llama2模型,存储在models目录中
  4. wget https://hf-mirror.com/TheBloke/Luna-AI-Llama2-Uncensored-GGUF/resolve/main/luna-ai-llama2-uncensored.Q4_0.gguf -O models/luna-ai-llama2
  5. #wget https://huggingface.co/TheBloke/Luna-AI-Llama2-Uncensored-GGUF/resolve/main/luna-ai-llama2-uncensored.Q4_0.gguf -O models/luna-ai-llama2
  6. # 将提示词模版中的getting_started.tmpl复制到models目录并和模型文件同名+.tmpl后缀
  7. cp -rf prompt-templates/getting_started.tmpl models/luna-ai-llama2.tmpl
  8. # docker拉取并启动aio-gpu镜像
  9. # 指定--models-path为/models
  10. # 将宿主机/xxx/LocalAI/models与container内的models目录进行关联,方便在宿主机修改文件
  11. docker run -tid --name local-ai -p 16080:8080 --gpus all -v /xxx/LocalAI/models:/models localai/localai:latest-aio-gpu-nvidia-cuda-12 --models-path /models
  12. # 查看当前服务下的模型列表
  13. curl http://宿主机ip:16080/v1/models
  14. # 返回:{"object":"list","data":[{"id":"luna-ai-llama2","object":"model"}]}
  15. # 测试模型是否启动
  16. curl http://宿主机ip:16080/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "luna-ai-llama2","messages": [{"role": "user", "content": "who are you?"}],"temperature": 0.9}'
  17. # 返回:{"created":1715329633,"object":"chat.completion","id":"e24ccbb9-3908-4e92-b25a-f5861c2582ce","model":"luna-ai-llama2","choices":[{"index":0,"finish_reason":"stop","message":{"role":"assistant","content":"I am a 28-year-old software developer living in New York City.\u003c/s\u003e"}}],"usage":{"prompt_tokens":10,"completion_tokens":19,"total_tokens":29}}

几个注意的点:

  • 如果服务器在境内且不能科学上网,需要将huggingface.co替换为hf-mirror.com,hf-mirror.com是huggingface.co的镜像站,完全复刻huggingface.co
  • 镜像选择localai/localai:latest-aio-gpu-nvidia-cuda-12,aio(all-in-one)镜像内集成了文生文、文生图、图生文、语音转文本、文本转语音等模型,目标是方便使用多种模型,但其实每次使用都要现从huggingface.co上拉取,境内服务器苦不堪言
  • 模型下载好,就可以用curl使用了,采用OpenAI兼容的API,这个还是不错的

2.解决AIO镜像无法从hf拉取模型的问题

进入到models目录,yaml是aio集成模型的配置文件 

打开修改镜像地址:将download_files内uri路径中的huggingface.co替换为hf-mirror.com

​​​​​​​

如果不是https开头的uri,比如b3d7d7ab5e9969a1408e28d5d7cd22f7.yaml

可以将uri替换为https开头的路径,直接到hf-mirror搜索到对应的模型,将模型路径中的blog/main改成resolve/main即为模型的下载路径

三、Local-AI前端

登陆"宿主机ip:port",比如123.123.123.123:16080,16080是docker启动时设置的。

1.Home

2.Models

进入到Models可以搜索需要的模型并且安装(搜了些国内的,很优先,更新没那么及时。

3.API

进入到API界面,列出了API调用说明,以OpenAI兼容API的形式对外提供。 

四、总结 

 本文列出了排坑后的Local-AI安装教程,及Local-AI前端,个人感觉,比如很友好,特别是对境内服务器开发者,建议还是看前两篇文章,选择Xinference和Ollama吧。如果仍然感兴趣,可以登陆项目github以及查看文档​​​​​​​进一步学习。

感谢各位阅读,花了几个小时踩坑,又花了一段时间写博客,结论就是Local-AI目前不是最好的选择,我帮大家躺过坑了。期待大家的关注、点赞、收藏和评论。

如果还有时间,期待您再看看我的其他文章:

《AI—工程篇》

AI智能体研发之路-工程篇(一):Docker助力AI智能体开发提效​​​​​​​

AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署

AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署

AI智能体研发之路-工程篇(四):大模型推理服务框架Xinference一键部署

AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署

《AI—模型篇》

AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用

AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战

文章知识点与官方知识档案匹配,可进一步学习相关知识
Python入门技能树首页概览423497 人正在系统学习中
注:本文转载自blog.csdn.net的LDG_AGI的文章"https://blog.csdn.net/weixin_48007632/article/details/138673899"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top