本地部署 DeepSeek-R1 模型全攻略 

本地部署 DeepSeek-R1 模型全攻略 

DeepSeek介绍

DeepSeek-R1‌是幻方量化旗下的AI公司深度求索(DeepSeek)研发的推理模型。该模型采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务‌。模型背景和功能。DeepSeek-R1是基于R1-Zero的增强版本,采用了修改后的训练工作流程开发。R1-Zero是通过纯强化学习训练的,而R1则在R1-Zero的基础上,利用少量人工标注的高质量数据进行冷启动微调,然后再进行纯强化学习训练‌34。这种训练方式使得R1在推理能力上表现出色,能够在仅有极少标注数据的情况下显著提升其推理能力‌

 

Ollama安装和模型安装

先安装ollama,,在根据自己的需求安装模型版本

ollama安装

文末提供安装包,可以自行下载安装即可

模型配置要求

    • 低配置硬件适配:如果你的电脑硬件配置较为基础,CPU 是老旧的双核或四核处理器,运行内存仅有 8GB 及以下,显卡为集成显卡或者独立显卡的显存不足 2GB ,那么 DeepSeek-R1-Distill-Llama-1.5B 模型是最佳选择。它对硬件资源的需求极低,能够在这样的设备上稳定运行,轻松应对日常对话、简单文本生成等基础文本处理任务,满足你的日常使用需求。
    • 中配置硬件适配:若你的电脑配置处于中等水平,配备像英特尔酷睿 i5 系列或者 AMD 锐龙 5 系列这样性能不错的 CPU,内存达到 16GB,显卡显存为 4 – 6GB ,那么 DeepSeek-R1-Distill-Llama-7B 或 DeepSeek-R1-Distill-Qwen-7B 模型将是你的得力助手。这类模型在中等配置的电脑上能够充分发挥潜力,运行效率较高,能够轻松处理简单代码生成、文章润色等具有一定复杂度的任务,帮助你完成更多有挑战性的工作。
    • 高配置硬件适配:对于电脑硬件配置高端的用户,拥有英特尔酷睿 i7/i9 系列或 AMD 锐龙 7/9 系列这种高性能 CPU,内存达到 32GB 及以上,显卡搭载 NVIDIA GeForce RTX 30 系列、AMD Radeon RX 6000 系列等高性能独立显卡,显存高达 8GB 及以上,此时 DeepSeek-R1-Distill-Llama-32B 甚至更高版本的模型,才是充分发挥你电脑硬件实力的不二之选。它们能够承担复杂的自然语言处理任务,如专业领域的文本深度分析、复杂代码的编写与调试等,为你带来高效且优质的使用体验。

模型安装

在PowerShell里面输入下面容易代码即可

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

 

模型运行

在PowerShell里面输入下面容易代码即可

ollama run deepseek-r1

操作到这里表示本地部署已经完成,下面这个是基于Chatbox Ai将我们部署到本地的deepseek-r1搞为网页端,这个不是必须操作的

模型退出

如果你想退出来就输入:/bye

 

chatboxai安装

环境变量设置

OLLAMA_HOST=0.0.0.0

OLLAMA_ORIGINS=*

API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。

接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。

模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。

 

DeepSeek操作

视频操作演示

 

 

软件下载

 

本地部署 DeepSeek-R1 模型全攻略 -阿幸软件杂货间
本地部署 DeepSeek-R1 模型全攻略 
此内容为免费资源,请登录后查看
0
免费资源
© 版权声明
THE END
喜欢就支持一下吧
点赞179 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情快捷回复

    暂无评论内容