本地部署 DeepSeek 大模型教程

DeepSeek 是目前最火的应用,日常写作、翻译、问答都能轻松搞定,独特的深度思考模式加上联网搜索,在编程、解题、文献解读等复杂任务中也游刃有余,推理思考能力一绝。春节前夕,中国人工智能企业深度求索(DeepSeek)发布其开源模型 DeepSeek R1,用较低的成本达到了接近于 OpenAI 开发的 GPT-o1 模型的性能。短短几天内,DeepSeek 便登顶中美两区苹果应用市场免费榜榜单。

其实早在2024年12月份深度求索(DeepSeek)就发布了v3模型,但当时并不火,直到今年1月份发布了对标 OpenAI-o1 的推理模型 DeepSeek R1,短短几天时间火爆全球。

DeepSeek 官网:https://www.deepseek.com
(PS:现在在浏览器输入 ai.com,也可以直接定向至 DeepSeek 官网)

由于 DeepSeek 免费开源,且训练成本大幅下降的情况下达到差不多的效果,这在AI行业引发的广泛的关注和讨论,市场对以英伟达为首的“大力出奇迹”的训练方式产生了质疑,认为通过对模型的优化可以减少对高端芯片的需求,英伟达股价也因此暴跌。

图片[1]-本地部署 DeepSeek 大模型教程-十一张

春节期间很多人已经体验了 DeepSeek,手机端可以在应用商店下载使用,或者打开 https://chat.deepseek.com 网页注册账号后直接免费使用,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

图片[2]-本地部署 DeepSeek 大模型教程-十一张

不过,DeepSeek 官网因为某些众所周知的原因,经常宕机不可用,我们可以自己在本地部署 DeepSeek R1 来解决这个问题,无需依赖云端服务。

本地部署 DeepSeek 大模型有三大优势:

1、保护隐私与数据安全,避免敏感信息上传至云端,防止第三方访问
2、支持模型定制化与优化,通过微调适应特定业务需求,如行业术语和企业内部知识库
3、离线运行能力,适用于无网络环境,提高系统稳定性,即使云服务宕机,本地模型仍可正常工作

今天十一张(www.11zhang.com)详细介绍一下如何在电脑上部署 DeepSeek R1 大模型。

部署教程

为了方便操作,可以先安装一个 Ollama 软件,它是一个开源的基于Go语言的本地大语言模型运行框架,专门为本地电脑上部署和运行大模型而生的,类似于Docker,支持上传和管理大语言模型仓库,包括 DeepSeek 等模型。在 Ollama 的官网,我们可以下载 Ollama 程序,然后更方便地下载、安装和运行 DeepSeek 模型。

1、打开 Ollama 官网下载地址:https://ollama.com/download,先下载 Ollama 程序,如下图;

图片[3]-本地部署 DeepSeek 大模型教程-十一张
图片[4]-本地部署 DeepSeek 大模型教程-十一张

PS:若下载Ollama速度太慢,也可以在下方站长分享的网盘下载!

https://url57.ctfile.com/d/16898257-64962940-9b9916?p=1140,访问密码:1140
https://share.feijipan.com/s/PbFMc7f5
https://www.123684.com/s/q7CRVv-u01Hd
https://pan.baidu.com/s/14JW94xoZVNqdUhuudaoz2g?pwd=1140,提取码:1140

2、以管理员身份安装 Ollama 程序,安装成功后打开 Ollama 程序,如下图;

图片[5]-本地部署 DeepSeek 大模型教程-十一张
图片[6]-本地部署 DeepSeek 大模型教程-十一张
图片[7]-本地部署 DeepSeek 大模型教程-十一张
图片[8]-本地部署 DeepSeek 大模型教程-十一张

3、Ollama 支持的大模型还是非常多的,其中 DeepSeek 模型也有多个版本:1.5b、7b、8b、14b、32b、70b 671b,版本越高对GPU要求越高。每一个版本都对应一个安装命令,我们可以先将安装命令复制下来,如下图。

https://ollama.com/search
图片[9]-本地部署 DeepSeek 大模型教程-十一张
图片[10]-本地部署 DeepSeek 大模型教程-十一张

4、下载并安装 Ollama 后,以管理员身份运行命令行终端,输入命令下载并运行本地模型。

举例:下载并运行 deepseek-r1:1.5b 模型(注意:Ollama 上的 DeepSeek R1 模型实际上是蒸馏模型)

ollama run deepseek-r1:1.5b
图片[11]-本地部署 DeepSeek 大模型教程-十一张
图片[12]-本地部署 DeepSeek 大模型教程-十一张

PS:卸载则把命令中的 run 改成 rm 即可,如果想了解更多命令,可以直接输入 ollama 查看。另外,默认情况下,Ollama模型的存储目录如下:

●Windows系统:C:\Users\<用户名>\.ollama\models
●macOS系统:~/.ollama/models
●Linux系统:/usr/share/ollama/.ollama/models
图片[13]-本地部署 DeepSeek 大模型教程-十一张
图片[14]-本地部署 DeepSeek 大模型教程-十一张

PPS:若下载模型速度太慢,也可以在下方站长分享的网盘下载!

https://url57.ctfile.com/d/16898257-65024338-7d4e7d?p=1140,访问密码:1140
https://share.feijipan.com/s/iLFVQe4l
https://www.123684.com/s/q7CRVv-XS1Hd
https://pan.baidu.com/s/1cgJcI2dQHDCBHZ8gjZRrkg?pwd=1140,提取码:1140

5、部署完成后,我们可以直接在命令窗口输入想问的问题,如下图。

图片[15]-本地部署 DeepSeek 大模型教程-十一张
图片[16]-本地部署 DeepSeek 大模型教程-十一张

PS:如果想退出对话,直接输入 /bye 即可。当电脑重启后,需要先运行 Ollama 软件,然后打开CMD命令提示符,输入下面的命令即可通过窗口进行对话。

ollama run deepseek-r1:1.5b
图片[17]-本地部署 DeepSeek 大模型教程-十一张

6、如果你觉得没有 UI 使用起来不方便,想要一个带界面的软件输出内容,可以安装一个 ChatBox 软件,或在浏览器中安装 Page Assist 插件 ,插件和软件的安装方法这里就不详细介绍了。

图片[18]-本地部署 DeepSeek 大模型教程-十一张

7、运行本地模型对你的电脑配置有一定要求,包括内存、GPU 等。但运行稳定,不受网速影响。如果出现卡顿,请尝试降低模型参数。有需要的小伙伴可以体验一下!相比 GPT 不需要多专业的提示词技巧,和 DeepSeek 说人话就可以。

有人总结了万能公式的4步提问法:明确身份+具体任务+细节约束+输出格式

1、身份:你是谁?(学生/打工人/老师…)
2、任务:要解决什么问题?(写报告/做计划/分析数据…)
3、细节:限制条件是什么?(时间/场景/禁忌…)
4、格式:想要什么形式的结果?(表格/分段/口语化…)

常见问题

1、如何设置 ollama api 局域网设备可以访问?

如何设置 ollama api 局域网设备可以访问 DeepSeek 大模型,请移步之前的文章,此处省略!

2、更改模型下载位置

Ollama下载的模型默认保存在C盘,强烈建议更改默认路径,可以通过新建环境变量 OLLAMA_MODELS 进行修改。

①通过任务栏退出正在运行的 Ollama 应用。
②打开 设置(Windows 11) 或 控制面板(Windows 10),搜索“环境变量”。
③在“系统变量”下点击 [新建] 按钮:

变量名:OLLAMA_MODELS
变量值:D:\Ollama

④保存设置并重新启动 Ollama 应用,使配置生效。

图片[19]-本地部署 DeepSeek 大模型教程-十一张
图片[20]-本地部署 DeepSeek 大模型教程-十一张
✅来源:十一张
温馨提示:本文最后更新于2025-02-12 11:18:17,某些文章具有时效性,若有错误或已失效,请在文末评论留言
© 版权声明
THE END
如果觉得这篇文章对您有帮助,可以收藏本网址,方便下次访问!
点赞3 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容