目录
一、DeepSeek本地部署【Windows】
1、安装Ollama
2、配置环境变量
3、下载模型
4、使用示例
a、直接访问
b、chatbox网页访问
二、DeepSeek本地部署【Mac】
1、安装Ollama
2、配置环境变量
3、下载模型
4、使用示例
5、删除已下载的模型
三、DeepSeek其他
1、各个蒸馏版本对应硬件配置参考
2、DeepSeek-V3的综合能力
3、DeepSeek-个人知识库
一、DeepSeek本地部署【Windows】
1、安装Ollama
Ollama官网 | Ollama |
2、配置环境变量
OLLAMA_HOST | 0.0.0.0 |
OLLAMA_ORIGINS | * |
3、下载模型
4、使用示例
a、直接访问
b、chatbox网页访问
Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
二、DeepSeek本地部署【Mac】
1、安装Ollama
2、配置环境变量
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"
还是不成功的请访问chatbox的帮助
直达链接:
如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题
3、下载模型
4、使用示例
总的来看,一般电脑比较适合部署14b版本,也算能用,毕竟是蒸馏版本,参数量在这放着呢,虽然是蒸馏版本,但也基本都保留了核心的推理能力。
如果想跑更高版本的,硬件配置很多人吃不消的,个人的建议14b玩玩就行了。
专业可靠的还得是官方的满血版本,硬件配置要求太高了。
有台式机可以搞到128G运存的,可以尝试下32b/70b的版本的。
5、删除已下载的模型
1.进入 cmd
2.查看已经部署的模型,输入:ollama list
3. 删除指定的模型: ollama rm deepseek -r1:70b
三、DeepSeek其他
1、各个蒸馏版本对应硬件配置参考
模型版本 | CPU要求 | 内存要求 | 硬盘要求 | 显卡要求 | 适用场景 |
---|---|---|---|---|---|
DeepSeek-R1-1.5B | 最低4核,推荐Intel/AMD多核处理器 | 8GB+ | 3GB+ | 非必需,若需GPU加速,可选4GB+显存(如GTX 1650) | 低资源设备部署等场景 |
DeepSeek-R1-7B | 8核以上,推荐现代多核CPU | 16GB+ | 8GB+ | 推荐8GB+显存(如RTX 3070/4060) | 本地开发测试等场景 |
DeepSeek-R1-8B | 与7B相近,略高10-20% | 与7B相近,略高10-20% | 与7B相近,略高10-20% | 与7B相近,略高10-20% | 需更高精度的轻量级任务 |
DeepSeek-R1-14B | 12核以上 | 32GB+ | 15GB+ | 16GB+显存(如RTX 4090或A5000) | 企业级复杂任务 |
DeepSeek-R1-32B | 16核以上(如AMD Ryzen 9或Intel i9) | 64GB+ | 30GB+ | 24GB+显存(如A100 40GB或双卡RTX 3090) | 高精度专业领域任务 |
DeepSeek-R1-70B | 32核以上服务器级CPU | 128GB+ | 70GB+ | 需多卡并行(如2x A100 80GB或4x RTX 4090) | 科研机构等高复杂度生成任务 |
2、DeepSeek-V3的综合能力
3、DeepSeek-个人知识库
待
有用请点赞,养成良好习惯!
疑问、交流、鼓励请留言!