首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

全网刷屏的 LLaMa3.1,2分钟带你尝个鲜

  • 25-03-02 14:22
  • 2062
  • 6272
blog.csdn.net

前天,带大家体验了用 Ollama 在本地部署了大模型:

本地部署大模型?Ollama 部署和实战,看这篇就够了

不过为了带大家快速跑通流程,只用了最小的 qwen:0.5B 进行演示~

就在昨天,Meta 宣布 LlaMa 3.1 正式开源,叫板 OpenAI 闭源的 GPT-4o。

一经发布,LlaMa 3.1 就刷爆了各大自媒体平台~

Llama3.1 强在哪?

Llama 3.1 共包含 8b、70b 和 405b 三种模型,它们都有 128k 最大上下文,就这一点,已经强于一众大模型了。

从性能上来看,405b 模型在通识、数学、翻译等一系列方面,都能力压 GPT-4o一头,甚至和 Claude3.5-sonnet 不分伯仲。

即便是参数量更小的 8b 和70b 模型在同等参数规模的选手中依然优势明显:

部署体验

强不强,用了才知道!

今天就带大家尝个鲜,手把手在本地把 Llama3.1 的 8B 版本跑起来。

不需要有任何技术背景,只需几步走,小白也能完成。

1. 环境准备

Ollama 是目前最便捷的大模型本地部署工具。

还没搭建好的小伙伴,可以先参考猴哥前天的教程准备好环境:

本地部署大模型?Ollama 部署和实战,看这篇就够了

Ollama 准备好之后,即刻启程~

2. 模型下载

特意上 Ollama 的模型库看了一眼,12 小时刚上线,已经有 154.4K 的下载量了,这火热程度,可见非凡~

不过,并不需要你手动下载,Ollma 已经通过极简的命令帮你搞定了,接着往下看。

3. 一键启动

如果你是采用 Docker 镜像部署的,首先需要进入容器:

docker exec -it ollama /bin/bash
  • 1

如果你是裸机部署的,可以采用如下命令一键运行 llama3.1

ollama run llama3.1
  • 1

默认下载 8b 模型,等待模型下载完成,终端输出如下,它来了。。。

pulling manifest 
pulling 87048bcd5521... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB                         
pulling 8cf247399e57... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.7 KB                         
pulling f1cd752815fc... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  12 KB                         
pulling 56bb8bd477a5... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████▏   96 B                         
pulling e711233e7343... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  485 B                         
verifying sha256 digest 
writing manifest 
removing any unused layers 
success 
>>> Send a message (/? for help)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

当弹出提示:Send a message,你就可以与它进行互动了。

我们简单测试一下:

>>> 你是谁?
我是一款基于语言模型的人工智能-chatbot,我可以用自然语言理解并生成文本。
>>> Send a message (/? for help)
  • 1
  • 2
  • 3
>>> 你可以教我学习 Python 么?
非常高兴地回答是!

我可以提供许多帮助您学习Python的资源:

1. **基本语法**: 我可以解释Python的基本语法,包括变量、数据类型、控制结构等。
2. **实例代码**: 我可以提供很多例子,帮助您理解如何使用Python来解决实际问题。
3. **常见问题**: 我可以回答您可能遇到的常见问题,如安装问题、错误处理等。
4. **学习指南**: 我可以推荐一些在线资源和教材,帮助您系统地学习Python。

您想要从哪里开始学习?

(例如:基础语法?实例代码?特定主题?)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

我的服务器是用的甲骨文云的示例,配置 1C16G,跑 8B 的模型还是毫无压力的,不过速度嘛~ 还是不太能忍。

4. Open WebUI 使用

进入 Open WebUI ,可以看到 llama3.1 模型已经注册好了。

我们来问他一个最经典的问题:3.9 和 3.11 哪个大?

哎,看来这个难倒一众 LLM 的问题,llama3 也未能幸免~

即便是用上 反问 的策略,它也在像模像样地胡说八道~

也许,换用最强的 llama3.1 405B 会好很多,感兴趣且有资源测试大模型的小伙伴,快去试试吧~ 评论区等你。。。??

目前解决这类问题还是得上 function call。在大模型没有完全解决幻觉问题之前,也许调用外部函数,是当前最靠谱的思路。

写在最后

作为开源大模型界的扛把子,LlaMA 从 1.0 成长到 3.1,造福了无数开发者和创业公司,很多垂类大模型都是基于 LlaMA 训练/微调。

正如 Meta 的 CEO 扎尔伯格所说:开源是 AI 前进的方向。

希望 AI 不再是束之高阁的黑科技,希望能帮到更多人学好/用好 AI,激发创造,丰富生活。

猴哥的文章偏实操,大家跟着走,可以一步一步学起来~

如果本文对你有帮助,欢迎点赞收藏备用!你的支持是我创作的最大动力。

注:本文转载自blog.csdn.net的AI码上来的文章"https://blog.csdn.net/u010522887/article/details/140704923"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top