Ollama 一个简明易用的本地大模型运行框架

Ollama 是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,而无需依赖云服务或复杂的基础设施设置。

Ollama 是一个基于Go语言的本地大语言模型运行框架,专门为本地电脑上部署和运行大模型而生的,类似于Docker,可以方便地下载和运行各种开源模型,比如 DeepSeek、Llama 3、Phi 3、Mistral、Gemma 等开源的大型语言模型。这个工具支持 Windows、MacOS、Linux 等操作系统。

Ollama 官网:https://ollama.com

功能特色

1、简化部署:Ollama旨在简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
2、轻量级与可扩展:作为轻量级框架,Ollama保持较小的资源占用,同时具备良好的可扩展性,允许用户根据需要调整配置以适应不同规模的项目和硬件条件。
3、API支持:提供了一个简洁的API,使得开发者能够轻松创建、运行和管理大型语言模型实例,降低了与模型交互的技术门槛。
4、预构建模型库:包含一系列预先训练好的大型语言模型,用户可以直接选用这些模型应用于自己的应用程序,无需从头训练或自行寻找模型源。
5、模型导入与定制:支持从特定平台(如GGUF)导入已有的大型语言模型,兼容PyTorch或Safetensors深度学习框架,允许用户将基于这些框架训练的模型集成到Ollama中。
6、跨平台支持:提供针对macOS、Windows(预览版)、Linux以及Docker的安装指南,确保用户能在多种操作系统环境下顺利部署和使用Ollama。

下载Ollama

打开 Ollama 官网下载地址:https://ollama.com/download,先下载 Ollama 程序,如下图;

图片[1]-Ollama 一个简明易用的本地大模型运行框架-十一张
图片[2]-Ollama 一个简明易用的本地大模型运行框架-十一张

PS:若下载Ollama速度太慢,也可以在下方站长分享的网盘下载!

https://url57.ctfile.com/d/16898257-64962940-9b9916?p=1140,访问密码:1140
https://share.feijipan.com/s/PbFMc7f5
https://www.123684.com/s/q7CRVv-u01Hd
https://pan.baidu.com/s/14JW94xoZVNqdUhuudaoz2g?pwd=1140,提取码:1140

安装Ollama

Windows 系统以管理员身份安装 Ollama 程序即可,如下图;

图片[3]-Ollama 一个简明易用的本地大模型运行框架-十一张
图片[4]-Ollama 一个简明易用的本地大模型运行框架-十一张

下载模型

Ollama 支持的大模型还是非常多的,我们可以访问下面的地址搜索需要使用的模型。模型的每一个版本都对应一个安装命令,我们可以先将安装命令复制下来,如下图。

https://ollama.com/search
图片[5]-Ollama 一个简明易用的本地大模型运行框架-十一张
图片[6]-Ollama 一个简明易用的本地大模型运行框架-十一张

以管理员身份运行命令行终端,输入命令下载并运行本地模型。例如下载并运行 deepseek-r1:1.5b 模型,如下图;

ollama run deepseek-r1:1.5b
图片[7]-Ollama 一个简明易用的本地大模型运行框架-十一张
图片[8]-Ollama 一个简明易用的本地大模型运行框架-十一张

环境变量

默认情况下,Ollama 模型的存储目录如下:

●Windows系统:C:\Users\<用户名>\.ollama\models
●macOS系统:~/.ollama/models
●Linux系统:/usr/share/ollama/.ollama/models

在 Windows 系统上,Ollama 下载的模型默认保存在C盘,强烈建议更改默认路径,我们可以通过新建环境变量 OLLAMA_MODELS 进行修改。

①通过任务栏退出正在运行的 Ollama 应用。
②打开 设置(Windows 11) 或 控制面板(Windows 10),搜索“环境变量”。
③在“系统变量”下点击 [新建] 按钮:

变量名:OLLAMA_MODELS
变量值:D:\Ollama

④保存设置并重新启动 Ollama 应用,使配置生效。

图片[9]-Ollama 一个简明易用的本地大模型运行框架-十一张
图片[10]-Ollama 一个简明易用的本地大模型运行框架-十一张

常用命令

Ollama 常用命令包括以下:

命令说明
ollama serve启动Ollama服务,以便运行模型和处理请求
ollama create [Modelfile路径]从模型文件创建新模型
ollama show [模型名称]查看特定模型的详细信息,如模型名称、版本等
ollama list 或 ollama ls列出本地所有可用的模型
ollama run [模型名称]运行一个已安装的模型,执行某些任务
ollama pull [模型名称]从模型注册表中拉取一个模型到本地使用
ollama push [模型名称]将本地模型推送到模型注册表中,以便他人或其他系统使用
ollama cp [原模型名称] [新模型名称]复制一个模型到另一个位置或给定名称的地方
ollama rm [模型名称]删除一个已安装的模型
ollama --help获取Ollama主命令的帮助信息,或使用 ollama run --help 获取特定命令的帮助信息
ollama --version显示当前 OLLAMA 工具的版本信息

这些命令涵盖了 Ollama 的基本使用场景,用户可以根据自己的需求来管理和运行模型。

图片[11]-Ollama 一个简明易用的本地大模型运行框架-十一张
✅来源:十一张
温馨提示:本文最后更新于2025-02-12 11:43:17,某些文章具有时效性,若有错误或已失效,请在文末评论留言
© 版权声明
THE END
如果觉得这篇文章对您有帮助,可以收藏本网址,方便下次访问!
点赞3 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容