DeepSeek介绍
DeepSeek-R1是幻方量化旗下的AI公司深度求索(DeepSeek)研发的推理模型。该模型采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言推理等复杂任务。模型背景和功能。DeepSeek-R1是基于R1-Zero的增强版本,采用了修改后的训练工作流程开发。R1-Zero是通过纯强化学习训练的,而R1则在R1-Zero的基础上,利用少量人工标注的高质量数据进行冷启动微调,然后再进行纯强化学习训练34。这种训练方式使得R1在推理能力上表现出色,能够在仅有极少标注数据的情况下显著提升其推理能力
Ollama安装和模型安装
先安装ollama,,在根据自己的需求安装模型版本
ollama安装
文末提供安装包,可以自行下载安装即可
模型配置要求
-
- 低配置硬件适配:如果你的电脑硬件配置较为基础,CPU 是老旧的双核或四核处理器,运行内存仅有 8GB 及以下,显卡为集成显卡或者独立显卡的显存不足 2GB ,那么 DeepSeek-R1-Distill-Llama-1.5B 模型是最佳选择。它对硬件资源的需求极低,能够在这样的设备上稳定运行,轻松应对日常对话、简单文本生成等基础文本处理任务,满足你的日常使用需求。
-
- 中配置硬件适配:若你的电脑配置处于中等水平,配备像英特尔酷睿 i5 系列或者 AMD 锐龙 5 系列这样性能不错的 CPU,内存达到 16GB,显卡显存为 4 – 6GB ,那么 DeepSeek-R1-Distill-Llama-7B 或 DeepSeek-R1-Distill-Qwen-7B 模型将是你的得力助手。这类模型在中等配置的电脑上能够充分发挥潜力,运行效率较高,能够轻松处理简单代码生成、文章润色等具有一定复杂度的任务,帮助你完成更多有挑战性的工作。
-
- 高配置硬件适配:对于电脑硬件配置高端的用户,拥有英特尔酷睿 i7/i9 系列或 AMD 锐龙 7/9 系列这种高性能 CPU,内存达到 32GB 及以上,显卡搭载 NVIDIA GeForce RTX 30 系列、AMD Radeon RX 6000 系列等高性能独立显卡,显存高达 8GB 及以上,此时 DeepSeek-R1-Distill-Llama-32B 甚至更高版本的模型,才是充分发挥你电脑硬件实力的不二之选。它们能够承担复杂的自然语言处理任务,如专业领域的文本深度分析、复杂代码的编写与调试等,为你带来高效且优质的使用体验。
模型安装
在PowerShell里面输入下面容易代码即可
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b
模型运行
在PowerShell里面输入下面容易代码即可
ollama run deepseek-r1
操作到这里表示本地部署已经完成,下面这个是基于Chatbox Ai将我们部署到本地的deepseek-r1搞为网页端,这个不是必须操作的
模型退出
如果你想退出来就输入:/bye
chatboxai安装
环境变量设置
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。
接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。
模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写deepseek-r1:7b ,否则可能会导致连接失败。
DeepSeek操作
视频操作演示
软件下载
暂无评论内容