2025年春节前后,DeepSeek 如滚烫油锅中溅入的一碗水,瞬间激起千层浪,在网络世界里掀起了一场热议风暴,迅速火遍大江南北。无论是互联网行业的前沿先锋,还是传统行业的资深从业者;无论是专注于开发、测试、运维的技术人员,亦或是国企的领导高层,几乎都对这一国产 AI 有所耳闻。一时间,DeepSeek 的访问量激增,以至于常常因过大的访问压力而无法及时解答问题。更有不少公司为了方便员工使用,果断选择在本地部署 DeepSeek 服务。
那么,DeepSeek 究竟是什么?它具备哪些独特的优点?普通用户该如何使用它?企业又该如何在本地完成部署呢?今天,就让小屁带大家一起深入探寻吧!
现在有很多假的甚至是用deepseek收费盈利的网站出现在搜索引擎中,真正的deepseek官网如下
DeepSeekChat with DeepSeek AI – your intelligent assistant for coding, content creation, file reading, and more. Upload documents, engage in long-context conversations, and get expert help in AI, natural language processing, and beyond. | 深度求索(DeepSeek)助力编程代码开发、创意写作、文件处理等任务,支持文件上传及长文本对话,随时为您提供高效的AI支持。https://chat.deepseek.com/
目录
一、deepseek简介
DeepSeek概述
技术特点
模型发布
应用领域
优势与影响
二、本地部署deepseek
1、安装ollama
2、部署deepseek-r1模型
三、可视化部署Web UI
1、下载Chatbox AI
1.在 Windows 上配置环境变量
3.注意事项
4.Chatbox配置模型
3、效果演示
一、deepseek简介
DeepSeek概述
DeepSeek是由深度求索(北京)科技有限公司开发的一款先进的人工智能模型,基于Transformer架构,具备强大的自然语言处理和多模态交互能力。其目标是通过技术创新和开源策略,推动AI技术的普及和应用。
技术特点
-
混合专家模型(MoE)架构:DeepSeek采用MoE架构,通过稀疏激活机制大幅减少计算量,同时保持高性能。
-
多头潜在注意力机制(MLA):通过低秩键值联合压缩和解耦旋转位置嵌入,提高计算效率。
-
多tokens预测(MTP)技术:允许模型同时预测多个连续位置的token,提高训练效率。
-
低精度训练:DeepSeek V3原生支持FP8混合精度训练,显著降低计算和存储需求。
-
多模态能力:支持文本、图像、音频等多种数据类型,适用于复杂的多模态任务。
-
高效训练框架:采用HAI-LLM框架,支持多种并行策略,降低训练成本。
模型发布
-
DeepSeek-R1:2025年1月发布,性能与OpenAI的o1正式版持平,开源。支持多模态任务,如文本生成、图像描述生成等。
-
DeepSeek-V3:2024年12月发布,总参数达6710亿,采用MoE架构和FP8混合精度训练,训练成本仅为557.6万美元。
-
Janus-Pro:2025年1月发布,支持文生图、图生文等多模态任务,性能强于DALL-E 3。
应用领域
-
自然语言处理:包括智能客服、文本生成、翻译、摘要等。
-
多模态任务:如图像生成、图像理解、音频处理等。
-
代码生成与调试:支持多种编程语言的代码生成和调试。
-
金融领域:用于投资研究、产品销售和客户服务。
-
教育领域:提升教育产品的智能化水平。
-
娱乐购物:如音乐推荐、内容创作等。
-
智能制造:工艺优化、设备维护、知识管理。
优势与影响
-
高性能与低成本:DeepSeek以极低的成本实现了高性能,打破了传统AI“规模至上”的观念。
-
开源生态:通过开源策略,降低了技术门槛,促进了全球开发者社区的参与。
-
中文优化:针对中文语境进行了深度优化,适合国内市场。
-
推动行业创新:DeepSeek的开源模式为全球AI发展注入新活力,推动了AI技术的普惠化。
-
行业应用广泛:在金融、教育、娱乐、智能制造等多个领域展现出强大的应用潜力。
DeepSeek凭借其技术创新和开源策略,正在成为AI领域的重要力量,推动全球AI技术的普及和应用
二、本地部署deepseek
1、安装ollama
ollama官网:Ollama
点击Download下载
选择对应的操作系统,本次以Windows操作系统为例 点击Download for Windows下载。
下载完成后,打开文件开始安装OllamaSetup
点击Install开始下载,等待下载完成
检查是否安装成功 win+R输入cmd调出命令行进入到命令模式,输入命令ollama -v查看是否安装成功,输入完命令出现了版本号的话就说明安装成功。
2、部署deepseek-r1模型
回到ollama官网点击左上角的Models进入如下界面。并选择第一个deepseek-r1,点击进入
选择适合自己电脑配置的版本
选择好后,复制对应版本后的命令
win+R输入cmd调出命令行进入到命令模式,输入命令 如果觉得下载速度慢,可以Ctrl+C先退出这个命令,然后再输入命令重新进行下载,还是会接着上次的下载进度继续下载,速度会稍微快一些。
下载完成后会出现success,接下来就可以进行对话了
问一个AI经常会出错的问题:9.11和9.9哪个大,deepseek会给出思考过程以及最终结论。
输入命令/bye可以退出对话
输入命令ollama list可以查看下载好的模型
输入ollama run + 对应的模型就可以进入对话
#退出模型
>>> /bye
#查看模型
C:\Users\chk>ollama list
NAME ID SIZE MODIFIED
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 3 minutes ago#启动模型
ollama run deepseek-r1:1.5b
>>>
#查看帮助
C:\Users\chk>ollama -h
Large language model runnerUsage:ollama [flags]ollama [command]Available Commands:serve Start ollamacreate Create a model from a Modelfileshow Show information for a modelrun Run a modelstop Stop a running modelpull Pull a model from a registrypush Push a model to a registrylist List modelsps List running modelscp Copy a modelrm Remove a modelhelp Help about any commandFlags:-h, --help help for ollama-v, --version Show version informationUse "ollama [command] --help" for more information about a command
这里输入ollama run deepseek-r1:latest可以发现再一次进入对话。
这样本地部署deepseek就算完成啦
三、可视化部署Web UI
1、下载Chatbox AI
Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载
设置中文
2、将 Chatbox 连接到远程 Ollama 服务
如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题
1.在 Windows 上配置环境变量
在 Windows 上,Ollama 会继承你的用户和系统环境变量。
通过任务栏退出 Ollama。
打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
点击编辑你账户的环境变量。
为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
点击确定/应用以保存设置。
从 Windows 开始菜单启动 Ollama 应用程序。
服务 IP 地址
配置后,Ollama 服务将能在当前网络(如家庭 Wifi)中提供服务。你可以使用其他设备上的 Chatbox 客户端连接到此服务。
Ollama 服务的 IP 地址是你电脑在当前网络中的地址,通常形式如下
192.168.XX.XX
在 Chatbox 中,将 API Host 设置为:
http://192.168.XX.XX:11434
3.注意事项
可能需要在防火墙中允许 Ollama 服务的端口(默认为 11434),具体取决于你的操作系统和网络环境。为避免安全风险,请不要将 Ollama 服务暴露在公共网络中。家庭 Wifi 网络是一个相对安全的环境。
4.Chatbox配置模型
3、效果演示
AI 大模型的发展势如破竹,恰似滚滚洪流般不可阻挡,深刻地改变着我们的工作和生活方式。其中,Deepseek 的应用愈发广泛,很多软件和公司官网都对其加以引用,就连用于开发的软件也纷纷引入 DeepSeek,借助其强大的功能来助力代码编写。在此背景下,作为一名运维人员,必须要能够灵活运用 AI 大模型,以此来高效地解决工作中遇到的各种问题,提升运维工作的质量和效率。
想成为大佬,就要从小白开始,从0开始,一点一点的积累,慢慢成长,明天你就是大佬!!想学习更多麒麟操作系统的知识,关注小屁,让你成为运维老鸟~~~~~