近期,DeepSeek-R1模型因其在数学推理、代码生成与自然语言推理等方面的优异表现而受到广泛关注。作为能够有效提升生产力的工具,许多个人和企业用户都希望能在本地部署DeepSeek-R1模型。
通过1Panel的应用商店能够简单、快速地在本地部署DeepSeek-R1模型。本教程将按照安装Ollama→安装OpenWebUI→安装并使用DeepSeek-R1的顺序,为您介绍使用1Panel开源面板部署DeepSeek-R1模型的具体步骤。
在部署好DeepSeek之后,用户也可以尝试将其与MaxKB开源知识库问答系统进行对接,构建一个自己的Chatbox,也就是一个与DeepSeek大模型的智能会话界面。
一、从1Panel应用商店安装Ollama
Ollama是一个开源的本地大语言模型运行框架,专门为在本地便捷部署和运行大型语言模型而设计。为了能够正常运行DeepSeek-R1模型,需要先在本地安装Ollama,本章节将介绍具体步骤。
首先,从1Panel首页进入“应用商店”,在“AI/大模型”分类下找到Ollama,点击“安装”按钮进行安装。
在安装详情页中,您可以自定义端口并勾选“端口外部访问”选项,其他设置保持默认,最后点击“确认”按钮。
Ollama安装成功后,在1Panel操作界面中返回应用商店的“已安装”标签页,看到Ollama已经安装成功。此时点击“服务端口:11434”按钮,浏览器自动跳转新标签页,若标签页内显示“Ollama is running”,则表示Ollama已成功安装并正常运行。
二、从1Panel应用商店安装OpenWebUI
由于Ollama本身没有用户交互界面,为了提升模型的使用体验,我们需要从1Panel的应用商店中安装OpenWebUI。
OpenWebUI是一款高度可扩展、功能丰富、操作便捷的自托管AI平台,它提供了一个更直观的用户界面,同时增强了安全性和扩展性。OpenWebUI与Ollama相结合,能够方便地管理和使用本地部署的大型语言模型。本章节将介绍安装OpenWebUI的具体步骤。
确认Ollama正常运行后,返回1Panel应用商店,在“AI/大模型”分类中找到OpenWebUI,点击“安装”按钮进行安装。
在安装详情页中,您需要填写Ollama服务地址和Secret Key,并勾选“端口外部访问”选项,其他设置保持默认,最后点击“确认”按钮。
OpenWebUI安装成功后,返回1Panel应用商店“已安装”标签页,点击“服务端口:3000”按钮,进入OpenWebUI控制台(注意:如果浏览器未能显示OpenWebUI控制台页面,请在OpenWebUI应用显示的“已安装”时间超过5分钟以后再进行访问)。
在OpenWebUI控制台中,依次设置“名称”、“电子邮箱”和“密码”,完成设置后,点击“创建管理员账号”按钮。稍等片刻,页面会弹出更新提示窗口,点击“确认,开始使用!”按钮,提示窗口消失后,即可开始使用OpenWebUI。
三、通过OpenWebUI安装并使用DeepSeek-R1
本章节将介绍如何通过OpenWebUI安装和使用DeepSeek-R1模型。
1.安装DeepSeek-R1模型:返回至OpenWebUI控制台页面,点击页面左上角的“选择一个模型”选项,在搜索框中输入“deepseek-r1:1.5b”,然后点击“从Ollama.com拉取deepseek-r1:1.5b”选项。
2.使用DeepSeek-R1模型:模型下载完成后,刷新页面,确认页面左上角的模型显示为“deepseek-r1:1.5b”。然后点击屏幕中央的输入框,就可以开始和DeepSeek-R1模型对话了。
稍等片刻,收到回复后即可确认DeepSeek-R1已通过1Panel成功部署到您的服务器。
四、使用GPU为DeepSeek- R1加速
使用GPU为DeepSeek-R1加速可以显著提升模型的推理速度。在本章节中,我们以NVIDIA GPU为例,介绍如何在1Panel中为DeepSeek-R1配置加速。
重要提示:在启用GPU加速之前,请确保服务器已经安装GPU卡并配置了相关驱动。
进入1Panel应用商店的“已安装”标签页,点击Ollama应用下的“参数”按钮。
点击“编辑”按钮进入参数配置页面的“详情”界面,勾选“高级设置”选项,并启用“编辑compose文件”选项。
此时,在compose内容编辑框中,输入以下与GPU相关的代码:
reservations:devices:- driver: nvidiacount: allcapabilities: [gpu]
输入完成后,点击编辑页面中的“确认”按钮,Ollama会自动重建。
当重建完成后,Ollama在1Panel应用商店中的状态变更为“已启动”,此时可以使用NVIDIA GPU为DeepSeek-R1提供加速。
五、企业如何用好DeepSeek?
DeepSeek部署完成后,该如何让各个业务部门使用好这个能力超强的大模型呢?
这时候,MaxKB开源知识库问答系统就可以发挥积极作用了。
首先,MaxKB可以为本地部署的DeepSeek构建一个Chatbox,也就是一个智能对话的界面,类似于个人用户直接与DeepSeek进行对话。
MaxKB提供的Chatbox可以方便地嵌入到企业OA系统和业务系统,让员工使用更加便捷、安全。
另一方面,企业内部有非常多的私有知识文档,这些内容是经过长期的积累和不断修订形成的,在企业内部可以形成知识库问答系统为企业的员工、合作伙伴和客户提供服务。
MaxKB提供开箱即用的RAG(Retrieval-Augmented Generation,检索增强生成)技术,能够结合私有知识库提升问答效果,有效降低大模型幻觉。