Ollama在macOS上修改models的存储位置
随着大语言模型的兴起&近几年的发展,我们已经可以在个人计算机上运行一些规模较小的模型,例如最近meta很火的llama3.1以及google的gemma等,我自己也在本人的macbook(M2 pro芯片)上简单体验了一下,效果还可以,同时也遇到了一些问题,写在下面:
写在开始:本文参考了网络上其他平台的一些文章,如在阅读时发现相近处,可能是小白编者也参考过相同的文章,大佬见谅🥹
Q1:存储空间问题
class="table-box">本人的MacBook pro并非十分高配的那种(16GB内存+512GB硬盘),因此适合运行的model大部分参数规模不会超过13B,以我现在安装的两个模型为例:
name | size | 参数规模 |
---|---|---|
gemma2:9b | 5.4 GB | 9B |
llama3.1 | 4.7 GB | 8B |
评论记录:
回复评论: