DeepSeek 本地部署是指将DeepSeek模型下载到本地电脑上,利用电脑的显卡进行数据处理和推理,可以减少网络延迟,提高数据处理和响应速度,从而避免将数据传输到云端,增强了数据的主权和控制,减少了因网络连接可能带来的安全风险。
DeepSeek本地部署需要的工具,以下工具均可通过对于官网下载为了方便小伙伴们使用,也可直接通过下面我分享的链接进行下载
OllamaSetup下载
Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架,简单来说就是一个方便部署、管理大模型的容器
浏览器搜索Ollama即可得到官网地址(https://ollama.com/
),点击进入即可;
进入官方后,点击Download即可进入下载页面
根据个人需求选择合适的版本,选择完成后点击“Download for xxxx”进行下载即可
下载好了之后直接双击OllamaSetup.exe运行即可,直接下一步即可,默认是装在C盘,如果安装到C盘就无需配置环境变量,如果需要装在其他盘则需要配置环境变量
以下是安装到其他盘的配置如下:
1.新建一个系统变量,变量名:OLLAMA_MODELS 变量值:创建并选择Ollama模型的存储路径
运行cmd命令
输入ollama
,出现如图所示证明环境配置成功
然后我们回到网页输入https://ollama.com/
选择Models下面的deepseek-r1点击如下图所示
选择适合自己电脑配置的模型即可
复制对应的模型下载命令
下载到百分之百模型就下载成功了,然后我们可以在命令行输入ollamalist
进行查询下载好的模型
使用ollama run
复制对应的名字即可运行对应的模型
如果觉得控制台方式不好操作,我们还可以使用微软浏览器Microsoft Edge(这里我不推荐用谷歌因为谷歌浏览器商店经常无法访问,无法下载对应的浏览器WebUI插件:Page Assist)
1.打开微软自带浏览器选择扩展按钮
https://microsoftedge.microsoft.com/addons/Microsoft-Edge-Extensions-Home
2.找到扩展组件界面输入Page Assist
3.点击获取进行下载
4.点击浏览器右上角有个扩展组件的图标
5.进入本地AI模型设置界面(extension://ogkogooadflifpmmidmhjedogicnhooa/options.html
)
6.点击一般设置进行中文设置
7.点击RAG设置设置对应的模型
8.设置好了 点击保存
9.选择新聊天,选中对应模型开始你的AI之旅
10.大功告成