本文主要是介绍如何拥有自己私有化部署的大模型?Mac下部署Ollama并使用llama3.1模型的方法详解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
😄啥是Ollama
Ollama 是一个开源的、专为本地环境设计的轻量级、可扩展框架,用于构建和运行大型语言模型(LLMs)。它允许用户在本地机器上部署和运行语言模型,无需依赖外部服务器或云服务,从而提高数据处理的隐私性和安全性。
简单来解释就是,Ollama是一个框架,可以用来在本地运行各种开源大模型,很方便。
🍆如何安装Ollama
首先,来到Ollama的官方网站:
Ollama
网页相当简洁,点击下载就可以了。
选择你的操作系统,这里选择macos,当然如果你是windows,就选择windows,然后下载。
下载完成后,解压缩,就可以得到一只小羊驼。
双击Ollama图标,会弹窗,点击“打开”就好。
之后会提示你,Ollama放在应用目录下运行效果比较好,为了保证兼容性或者不出一些奇奇怪怪的bug,我这里建议选择 “move to applications”.他会自动把这个应用复制一份到应用目录下。
点击Next。
点击install进行安装即可。
弹窗出来的页面,这里需要点击命令行右侧的小图标,复制这行命令。点击“finish”完成。
这个时候,你会发现任务栏多了一只小羊驼
但这个时候,其实还没有安装模型,你需要手动安装一下模型。
找到你电脑上的应用-》终端,打开:
粘贴你刚才复制的命令,然后回车,系统会开始下载模型:
耐心等待即可,这里可能需要一些魔法。
当然,如果你网络断了,这个也是支持断点续传的,下次网络好了接着下载就可以。
如果你电脑配置特别棒,希望用更强的模型,那么也可以到官网下载别的模型:
然后在列表中选择你喜欢的模型:
然后选择你喜欢的版本:
点击右边的复制小图标,复制命令行,并在终端执行,就可以下载对应的模型并使用了。
安装完成就可以在命令行愉快的对话了,不过前提是你的mac性能得好一点🤏
✨写在最后
如果对comfyui还不熟悉的话,最近面向ComfyUI的新手,写了一门系统性入门图文课程,现在已经更新完成了,内容主要包括如何下载软件、如何搭建自己的工作流、关键基础节点讲解、遇到报错怎么解决等等,如果大家在学习过程中遇到什么问题,也可以直接对应的文章下留言,会持续更新相关答疑内容哈。欢迎订阅哦~
https://blog.csdn.net/jumengxiaoketang/category_12683612.html
感谢大家的支持~
这篇关于如何拥有自己私有化部署的大模型?Mac下部署Ollama并使用llama3.1模型的方法详解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!