《Deepseek R1 本地部署完全⼿册》

版权归:HomeBrew Ai Club作者wechat:samirtan版本:V2.0更新⽇期:2025年2⽉8⽇

⼀、简介

Deepseek R1 是⽀持复杂推理、多模态处理、技术⽂档⽣成的⾼性能通⽤⼤语⾔模型。本⼿册为技术团队提供完整的本地部署指南,涵盖硬件配置、国产芯⽚适配、量化⽅案、云端替代⽅案及完整671B MoE模型的Ollama部署⽅法。

核⼼提示:

个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。
企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。

⼆、本地部署核⼼配置要求

  1. 模型参数与硬件对应表
模型参 数Windows配置要求Mac配置要求适用场景
1.5B- RAM:4GB -GPU:集成显卡/现代CPU -存储:5GB-内存:8GB (M1/M2/M3) -存储:5GB简单文本生成、基础代 码补全
7B-RAM:8-10GB -GPU:GTX1680(4-bit量 化) -存储:8GB-内存:16GB(M2 Pro/M3) -存储:8GB中等复杂度问答、代码 调试
14B- RAM:24GB - GPU:RTX 3090(24GB VRAM) -存储:20GB-内存:32GB(M3 Max) -存储:20GB复杂推理、技术文档生 成
32B+企业级部署 (需多卡并联)暂不支持科研计算、大规模数据 处理

2. 算⼒需求分析

模型参数规 模计算精 度最低显存需 求最低算力需求
DeepSeek-R1 (671B)671BFP8≥890GB2*XE9680 (16*H20 GPU)
DeepSeek-R1-Distill- 70B70BBF16≥180GB4*L20或2*H20GPU

三、国产芯⽚与硬件适配⽅案

1. 国内⽣态合作伙伴动态

企业适配内容性能对标(vs NVIDIA)
华为昇 腾昇腾910B原生支持R1全系列,提供端到端推理优化 方案等效A100(FP16)
沐曦 GPUMXN系列支持70B模型BF16推理,显存利用率提升 30%等效RTX3090
海光 DCU适配V3/R1模型,性能对标NVIDIAA100等效A100(BF16)

2. 国产硬件推荐配置

模型参数推荐方案适用场景
1.5B太初T100加速卡个人开发者原型验证
14B昆仑芯K200集群企业级复杂任务推理
32B壁彻算力平台+昇腾910B集群科研计算与多模态处理

四、云端部署替代⽅案

1. 国内云服务商推荐

平台核心优势适用场景
硅基流动官方推荐API,低延迟,支持多模态模型企业级高并发推理
腾讯云一键部署+限时免费体验,支持VPC私有化中小规模模型快速上线
PPIO派欧云价格仅为OpenAl1/20,注册赠5000万tokens低成本尝鲜与测试

2. 国际接⼊渠道(需魔法或外企上⽹环境 $\circledcirc$

英伟达NIM:企业级GPU集群部署(链接)Groq:超低延迟推理(链接)

五、完整671B MoE模型部署(Ollama+Unsloth)

1. 量化⽅案与模型选择

量化版本文件体 积最低内存+显存需 求适用场景
DeepSeek-R1-UD- IQ1_M158GB≥200GB消费级硬件 :(如Mac Studio)
DeepSeek-R1-Q4_K_M404GB≥500GB高性能服务器/云GPU

下载地址:

HuggingFace模型库Unsloth AI官⽅说明

2. 硬件配置建议

硬件类型推荐配置性能表现 (短文本生成)
消费级设备MacStudio (192GB统一内存)10+ token/秒
高性能服务器4×RTX4090 (96GB显存+384GB内存)7-8 token/秒 (混合推理)

3. 部署步骤(Linux示例)

1. 安装依赖⼯具:

安装llama.cpp(⽤于合并分⽚⽂件)

/bin/bash -c “$(curl -fsSL
https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
brew install llama.cpp

2. 下载并合并模型分⽚:

llama-gguf-split –merge DeepSeek-R1-UD-IQ1_M-00001-of-00004.gguf DeepSeek-R1-UD-IQ1_S.gguf

3. 安装Ollama:

curl -fsSL https://ollama.com/install.sh | sh

4. 创建Modelfile:

FROM /path/to/DeepSeek-R1-UD-IQ1_M.gguf
PARAMETER num_gpu 28 # 每块RTX 4090加载7层(共4卡)
PARAMETER num_ctx 2048
PARAMETER temperature 0.6
TEMPLATE “<|end▁of▁thinking $1>{\ell$ .Prompt $\gamma}<|$ end▁of▁thinking|>”

5. 运⾏模型:

ollama create DeepSeek-R1-UD-IQ1_M -f DeepSeekQ1_Modelfile ollama run DeepSeek-R1-UD-IQ1_M –verbose

4. 性能调优与测试

GPU利⽤率低:升级⾼带宽内存(如DDR5 $5600+)$ )。

扩展交换空间:

sudo fallocate -l 100G /swapfile sudo chmod 600 /swapfile sudo mkswap /swapfile sudo swapon /swapfile

六、注意事项与⻛险提示

1. 成本警示:

70B模型:需3张以上80G显存显卡(如RTX A6000),单卡⽤户不可⾏。
671B模型:需8xH100集群,仅限超算中⼼部署。

2. 替代⽅案:

$^\circ$ 个⼈⽤户推荐使⽤云端API(如硅基流动),免运维且合规。

  1. 国产硬件兼容性:需使⽤定制版框架(如昇腾CANN、沐曦MXMLLM)。

七、附录:技术⽀持与资源

华为昇腾:昇腾云服务沐曦GPU:免费API体验李锡涵博客:完整部署教程

结语

Deepseek R1 的本地化部署需极⾼的硬件投⼊与技术⻔槛,个⼈⽤户务必谨慎,企业⽤户应充分评估需求与成本。通过国产化适配与云端服务,可显著降低⻛险并提升效率。技术⽆⽌境,理性规划⽅能降本增效!

⼿册更新与反馈:如有补充或修正,请联系⽂档作者,接⼊细节请阅读详细⽂档硅基流动社 区。

全球企业个⼈渠道附表

  1. 秘塔搜索:https://metaso.cn 2. 360纳⽶AI搜索:https://www.n.cn/ 3. 硅基流动:https://cloud.siliconflow.cn/i/OBklluwO 4. 字节跳动⽕⼭引擎:https://console.volcengine.com/ark/region:ark+cn-beijing/experience 5. 百度云千帆:https://console.bce.baidu.com/qianfan/modelcenter/model/buildIn/list 6. 英伟达NIM:https://build.nvidia.com/deepseek-ai/deepseek-r1 7. Groq:https://groq.com/ 8. Fireworks:https://fireworks.ai/models/fireworks/deepseek-r1 9. Chutes:https://chutes.ai/app/chute/ 10. Github:https://github.com/marketplace/models/azureml-deepseek/DeepSeekR1/playground 11. POE:https://poe.com/DeepSeek-R1 12. Cursor:https://cursor.sh/ 13. Monica:https://monica.im/invitation?c=ACZ7WJJ9 14. Lambda:https://lambdalabs.com/ 15. Cerebras:https://cerebras.ai 16. Perplexity:https://www.perplexity.ai 17. 阿⾥云百炼:https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1

为需要魔法或外企上⽹环境

芯⽚企业⽀持附图

支持DeepSeek模型的国内Ai芯片企业动态(智东西制表)
日期 企业官宣标题
2月1日华为 首发!硅基流动x华为云联合推出基于昇腾云的DeepSeekR1&V3推理服务!
2月1日 METAX:沐曦 GiteeAl联合沐曦首发全套DeepSeekR1千问蒸馏模型,全免费体验!
2月4日 天原芯天数智芯 一天适配!天数智芯联合GiteeAI正式上线DeepSeekR1模型服务
2月4日摩尔线程 致敬DeepSeek:以国产GPU为基,燎原中国Al生态之火
2月4日 NOOAH海光信息 DeepSeekV3和R1模型完成海光DCU适配并正式上线
2月4日华为 昇腾原生:路晨科技推出基于昇腾算力的DeepSeekR1系列推理API及云镜像服务
2月5日 MTAX沐曦 DeepSeek-V3满血版在国产沐曦GPU首发体验上线
2月5日华为 昇腾蛇年开工送大礼,DeepSeek系列新模型正式上线昇腾社区
2月5日 HYGON海光信息 海光DCU成功适配DeepSeek-Janus-Pro多模态大模型
2月5日壁仞科技 DeepSeekR1在壁仞国产Al算力平台发布,全系列模型一站式赋能开发者创新
2月5日太初元基基于太初T100加速卡2小时适配DeepSeek-R1系列模型,一键体验,免费API服务
云天励飞 DeepEdge10已完成DeepSeekR1系列模型适配
2月5日隧原科技 隧原科技实现全国各地智算中心DeepSeek的全量推理服务部署
2月6日
2月6日昆仑芯 国产Al卡Deepseek训练推理全版本适配、性能卓越,一键部署等您来(附文档下载方式)

云⼚商智算企业⽀持附图

官宣支持DeepSeek模型的国内云服务及智算企业动态(智东西制表)
日期 企业官宣标题
1月28日无问芯穹 无问芯穹Infni-Al异构云现已上架DeepSeek-R1-Distill,国产模型与异构云的绝妙组合
1月28日PPIO派欧云 重磅!DeepSeek-R1上线PPIO派欧算力云
1月28日硅基流动 SiliconCloud上线DeepSeek多模态模型:Janus-Pro-7B来了
2月1日华为云 首发!硅基流动x华为云联合推出基于昇腾云的DeepSeekR1&V3推理服务!
2月1日硅基流动 首发!硅基流动x华为云联合推出基于昇腾云的DeepSeekR1&V3推理服务!
2月1日天翼云 神秘“东方力量”集结!DeepSeek-R1模型在天翼云上架!
2月2日腾讯云一键部署,3分钟调用!DeepSeek-R1登陆腾讯云
2月2日云轴科技首发!ZStack智塔支持DeepSeekV3/R1/JanusPro,多种国产CPU/GPU可私有化部署
2月2日C PPIO派欧云PPIO派欧算力云接入DeepSeek全模型,价格仅OpenAlo11/20,注册即送5000万tokens!
2月3日? 阿里云3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
2月3日百度智能云百度智能云千帆全面支持DeepSeek-R1/V3调用,价格超低
2月3日SCNet 超算互联网超算互联网上线DeepSeek系列模型,提供超智融合算力支持
2月4日腾讯云一键部署+限免体验!腾讯云上架DeepSeek系列模型
2月4日硅基流动全家桶来了!硅基流动上线加速版DeepSeek-R1蒸馏模型
2月4日八 火山引擎全尺寸DeepSeek模型登陆火山引l擎!
2月4日青云科技限时免费,一键部署!基石智算正式上线DeepSeek-R1系列模型
2月4日算力互联国产GPU与DeepSeek加速适配,算力互联携手天数智芯推出DeepSeek-R1模型服务
2月4日京东云一键部署!京东云全面上线DeepSeek-R1/V3
2月4日SCNet 超算互联网再上新丨来超算互联网DeepSeek一下!
2月5日联通云“哪吒闹海”!联通云上架DeepSeek-R1系列模型!
2月5日PPIO派欧云PPIO假期战报:99.9%可用性!连夜支持满血版DeepSeek,助力客户轻松应对流量高峰
2月5日并济科技并济科技携手燧原科技完成DeepSeek全量推理服务国产化部署,加速智算中心生态建设
2月5日UCLOUO 优刻得优刻得基于国产芯片适配DeepSeek全系列模型
2月5日移动云全版本、全尺寸、全功能!移动云全面上线DeepSeek
2月6日青云科技持续上线DeepSeek!基石智算Janus-Pro-7B文生图模型来了
2月6日神州数码3分钟部署高性能Al模型DeepSeek,神州数码助力企业智能化转型
2月6日天翼云
2月6日并行 并行科技服务器繁忙?并行科技助您DeepSeek自由!
2月6日CLOU 优刻得优刻得私有云上线DeepSeek系列模型
2月7日浪潮云浪潮云率先发布671BDeepSeek大模型一体机解决方案
2月7日北京超算北京超算xDeepSeek:双擎爆燃,驱动千亿级Al创新风暴

注:⼚商⽀持图表版权归智东⻄