上一篇:
DeepSeek R1 本地部署指南 (1) - Windows 本地部署-CSDN博客
1.安装 Ollama
Ollama
https://ollama.com/
点击 Download - Download for macOS
解压下载 zip
启动程序
3. 选择版本
DeepSeek R1 版本
deepseek-r1
https://ollama.com/library/deepseek-r1
模型规模 | 适合的 Mac 型号 | CPU | 内存 | GPU | 备注 |
---|---|---|---|---|---|
1.5B | MacBook Air (M1/M2) | Apple M1/M2(8核) | 8GB~16GB | 集成GPU(7核~10核) | 适合小型模型,推理任务。内存有限,不适合大规模模型。 |
1.5B~7B | MacBook Pro 13" (M1/M2) | Apple M1/M2(8核) | 16GB~24GB | 集成GPU(8核~10核) | 适合中等规模模型,推理任务。显存有限,不适合大规模训练。 |
1.5B~7B | MacBook Pro 14"/16" (M1 Pro) | Apple M1 Pro(10核) | 16GB~32GB | 集成GPU(16核) | 性能较强,适合中等规模模型的推理和轻量训练。 |
7B~14B | MacBook Pro 14"/16" (M1 Max) | Apple M1 Max(10核) | 32GB~64GB | 集成GPU(24核~32核) | 高性能GPU和内存,适合较大规模模型的推理和轻量训练。 |
7B~14B | Mac Studio (M1 Max) | Apple M1 Max(10核) | 32GB~64GB | 集成GPU(24核~32核) | 与MacBook Pro M1 Max性能相近,适合较大规模模型的推理和轻量训练。 |
14B~32B | Mac Studio (M1 Ultra) | Apple M1 Ultra(20核) | 64GB~128GB | 集成GPU(48核~64核) | 超高性能GPU和内存,适合大规模模型的推理和轻量训练。 |
7B~32B | Mac Pro (Intel + AMD GPU) | Intel Xeon(多核) | 32GB~1.5TB | AMD Radeon Pro(显存16GB~64GB) | 高性能配置,适合较大规模模型的推理和训练。需注意AMD GPU的深度学习支持。 |
4. 执行命令
打开 Terminal
执行对应版本的命令:
1.5b 版本命令:
ollama run deepseek-r1:1.5b
7b 版本命令:
ollama run deepseek-r1:7b
8b 版本命令:
ollama run deepseek-r1:8b
14b 版本命令:
ollama run deepseek-r1:14b
32b 版本命令:
ollama run deepseek-r1:32b
70b 版本命令:
ollama run deepseek-r1:70b
671b 版本命令:
ollama run deepseek-r1:671b
测试安装是否成功:
ollama
举例安装 1.5b 执行:
ollama run deepseek-r1:1.5b
安装中
安装完成
4.输入问答
输入问题:
Hello
显示回复
输入问题:
你好,你是谁?
显示回复
5.后续运行
下次运行,还是执行上次的相同命令:
ollama run deepseek-r1:1.5b
后续:
DeepSeek R1 本地部署指南 (3) - 更换本地部署模型 Windows/macOS 通用-CSDN博客