阿里云 DeepSeek 模型部署与使用技术评测

引言

随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
解决方案链接:零门槛、即刻拥有 DeepSeek-R1 满血版-阿里云技术解决方案
 


一.基于百炼 API 调用满血版:

方案概览
本方案以 DeepSeek-R1 满血版为例进行演示,通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。

方案架构
按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。

0001.png

一.在部署本方案开始时,首先要登录阿里云百炼大模型服务平台获取API-KEY(这里获取方法我就不赘述了,看下吗截图):

0001.png

二、使用 Chatbox 客户端配置 百炼 API 进行对话:

1.访问 Chatbox (下载地址:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载) 下载并安装客户端,本方案以 windows 为例。
 

0001.png


2.点击下载按钮,选择下载目录后进行下载:
 

0001.png


3.双击“Chatbox-1.9.8-Setup.exe”进行安装,注意安装路径。
 

0001.png


4.安装好后直接运行Chatbox,这里我们选择“使用自己的APl Key 或本地模型”。
 

0001.png


5.进行参数配置:
 

0002.png


参数内容可以参考我下面的截图内容:
 

0001.png


6.完成配置后,我们就可以在输入框进行测试了,如下图:

0001.png

基于百炼 API 调用满血版,是不是超级简单?!

二.基于人工智能平台 PAl 部署:

将 DeepSeek-R1 开源模型部署到人工智能平台 PAI。
人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。其中,Model Gallery 组件提供了一个丰富多样的模型资源库,使用户能够轻松地查找、部署、训练和评估模型,大大简化了开发流程。PAI-EAS 则提供了高性能的模型推理服务,支持多种异构计算资源,并配备了一套完整的运维和监控系统,确保服务的稳定性和高效性。方案以 DeepSeek-R1-Distill-Qwen-7B 为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。用户还可以使用 PAI-DSW 和 PAI-DLC 进行模型的微调训练,以便更好地满足特定业务场景的需求,进一步提高模型的性能、准确性和适用性。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
 

0001.png


1.登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮。已开通的可以跳过此步骤。
 

0001.png


2.进入控制台后,在工作空间页面的左侧导航栏选择 Model Gallery,在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B。
 

0001.png


3.点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
 

0001.png


4.在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30
 

0001.png


 

0001.png


其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮即可。

5.完成部署后,将会如下图显示“运行中”。(部署等待时间可能有点长,可以起来先喝口茶,哈哈)
 

0001.png


6.单击查看调用信息
 

0001.png


在弹出的看板中选择公网地址调用,复制保存访问地址和 Token
 

0001.png


7.接下来我们就可以使用 Chatbox 客户端配置 vLLM API 进行对话。前面在上文中我已经介绍过如何安装Chatbox 客户端了,这里就不重复了。(点击【设置】,然后点击【添加自定义提供方】)
 

0002.png


在弹出的看板中按照如下表格进行配置。
 

0001.png


完成配置后,配置项如下图所示:
 

0001.png


8.接下来我们就可以测试验证配置啦,在输入框输入问题即可。
 

0001.png


另外补充说明下,在PAI 控制台点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。

0001.png

相对“基于百炼 API 调用满血版”这里步骤稍多点,但是性能方面无可厚非哈。


三.基于函数计算部署:

将 DeepSeek-R1 开源模型部署到函数计算 FC 。通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。Open WebUI 则为用户提供友好的交互界面。借助 CAP,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。同时 CAP 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

0001.png


1.部署 DeepSeek-R1 模型,首先我们根据实验手册进行一键部署(函数计算FC一直以来都是我非常喜欢的功能,重在快捷方便,就是有时候部署时间有点长,部署过程可以站起来运动运动),步骤非常简单:
 

0001.png


部署完成后,类似下图所示。
 

0001.png


2.完成部署后,按照下图找到访问地址。

0001.png

3.进入访问地址,你就可以和模型进行对话咯,在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。

0001.png

当然你也同样可以使用 Chatbox 客户端配置 Ollama API 进行对话,这里操作流程和配置方法我上面也都举例过,这里就不重复了。(配置参数我发大家看下)

0001.png


四.基于 GPU 云服务器部署:

将 DeepSeek-R1 开源模型部署到 GPU 云服务器。在 GPU 云服务器上安装与配置 Ollama 和 Open WebUI。Ollama 负责托管 DeepSeek-R1 模型,Open WebUI 则为用户提供友好的交互界面。GPU 云服务器凭借其高性能并行计算架构,可以显著加速大模型的推理过程,特别是在处理大规模数据和高并发场景,可以有效提升推理速度和推理吞吐。专有网络 VPC 和交换机用于资源隔离和安全管理,确保数据传输的安全性和网络的高可靠性。方案以 DeepSeek-R1-Distill-Qwen-7B为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
 

0001.png


1.创建专有网络 VPC 和交换机:根据我下图的配置参数进行创建配置:
 

0001.png


2.创建安全组:根据我下图的配置参数进行创建配置:

0001.png


3.创建 GPU 云服务器:根据我下图的配置参数进行创建配置:
 

0001.png


 

0001.png


4.登录服务器:
4.1登录 ECS管理控制台。
4.2在左侧导航栏,选择实例与镜像>实例。
4.3在顶部菜单栏,选择华东1(杭州)地域。
4.4部署示例应用程序。
a.在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
b.在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
4.5输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
4.6如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启。
 

0001.png


5.部署 Ollama:
5.1.执行以下命令部署 Ollama 模型服务。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/ollama_install.sh|sh

5.2如下图所示,说明 Ollama 部署完成。
 

0001.png


5.3执行以下命令拉取模型。

ollama pull deepseek-r1:7b

0001.png

5.4执行以下命令,运行模型,运行成功后,在键盘上敲击两次回车键。

ollama run deepseek-r1:7b &

6.部署 Open WebUI:

6.1执行以下命令部署 Open WebUI 应用。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/install.sh|sh

6.2部署完成后,可以看到控制台中输出Installation completed。
7.访问示例应用,在浏览器中访问http://:8080,访问 Open WebUI。
 

0001.png


8.接下来就可以与模型对话了。在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。

0001.png

至此,我们四个实验就都已经完成了操作和体验。


1. 部署文档步骤指引的准确性

评测结果:

在阅读并实际操作了阿里云提供的部署文档后,整体感觉文档的步骤指引相对清晰且准确。以下是具体的操作体验:

  • 基于百炼 API 调用满血版:通过 API 网关调用 DeepSeek 模型非常直观,API 文档中详细列出了所有必要的参数和返回值,便于开发者快速上手。

  • 基于人工智能平台 PAl 部署:PAl 平台提供了图形化的界面,使得整个部署过程更加友好。尽管如此,在配置环境变量时遇到了一些小问题,主要是因为某些默认值与实际需求不符,导致需要手动调整。

  • 基于函数计算部署:函数计算的部署流程较为顺畅,但在创建服务时,发现部分选项描述不够明确,比如有超链一键部署,但是没有把链接放出来,不通过实验手册自己手动配置可能需要花点时间。

  • 基于 GPU 云服务器部署:GPU 云服务器的部署相对复杂,主要涉及到系统镜像的选择等,不能选错。虽然文档中有详细的说明,但仍然建议提供一个预装好环境的镜像以简化操作。

改进建议:

  • 增加更多常见问题的解答,特别是在涉及环境变量配置的部分。
  • 提供更详细的内存和超时时间配置建议,帮助用户更好地理解不同场景下的最佳实践。

2. 文档引导与帮助的充分性

评测结果:

在整个部署过程中,阿里云提供的文档和帮助资源基本能够满足需求,但在某些环节仍需进一步优化。

  • 基于百炼 API 调用满血版:API 文档非常详尽,每个接口都有示例代码和详细的解释,极大地降低了学习成本。

  • 基于人工智能平台 PAl 部署:PAl 平台的图形化界面友好,但在某些高级功能(如自定义插件)的使用上,文档略显不足,导致需要额外搜索其他资料。

  • 基于函数计算部署:函数计算的文档较为全面,但在调试过程中,发现日志输出不够详细,有时难以定位具体问题。另外函数部署的配置未放出来。

  • 基于 GPU 云服务器部署:GPU 云服务器的文档涵盖了大部分关键步骤,但对于一些特定硬件配置的细节描述不够深入,可能会给新手带来困扰。

改进建议:

  • 在 PAl 平台上增加更多关于高级功能的使用指南,尤其是针对自定义插件的开发和集成。
  • 函数计算的日志系统可以进一步增强,提供更多详细的调试信息。
  • 对于 GPU 云服务器,建议提供一个预配置好的环境镜像,并附带详细的硬件兼容性列表。

3. 多种使用方式的理解程度与方案描述

评测结果:

阿里云提供的四种部署方式各有优势,但在初次接触时,确实需要一定的时间去理解和消化。

  • 基于百炼 API 调用满血版:这种方式最为简便,适合快速集成到现有应用中。文档中对 API 的描述清晰,易于理解。

  • 基于人工智能平台 PAl 部署:PAl 平台的优势在于其强大的可视化工具和丰富的插件库,但需要一定的学习曲线,特别是对于不熟悉该平台的用户。

  • 基于函数计算部署:函数计算的方式非常适合无服务器架构的应用场景,但需要对 AWS Lambda 或类似的服务有一定了解才能充分利用其优势。

  • 基于 GPU 云服务器部署:这种方式提供了最大的灵活性和性能,但同时也要求用户具备较强的系统管理和运维能力。

疑惑与反馈:

  • 在 PAl 平台上,希望看到更多关于模型训练和优化的具体案例,帮助用户更好地理解如何利用该平台提升模型效果。
  • 函数计算的计费模式较为复杂,建议提供一个简明易懂的费用计算器,帮助用户估算成本。

4. 推荐的最佳使用方式

推荐方式:基于百炼 API 调用满血版

推荐理由:

  • 简单快捷:无需复杂的配置和环境搭建,几分钟内即可完成集成。
  • 高可用性:阿里云提供的 API 服务具有高可靠性和低延迟,确保模型响应速度。
  • 灵活扩展:可以根据实际需求动态调整 API 请求量,适应不同规模的应用场景。

个人体验:
在实际项目中,我选择了基于百炼 API 调用满血版的方式进行集成。这种方式不仅大大缩短了开发周期,还显著提升了系统的稳定性和性能。尤其是在处理大量并发请求时,API 服务的表现令人满意。


5. 实际需求匹配度与采用意愿

评测结果:

阿里云提供的 DeepSeek 模型使用方式基本满足了我的实际需求,尤其是在快速集成和高性能方面表现出色。然而,仍有改进空间:

  • 基于百炼 API 调用满血版:完全满足了我的需求,特别是在快速上线和低成本维护方面表现优异。

  • 基于人工智能平台 PAl 部署:虽然功能强大,但对于小型项目来说显得有些冗余,更适合大规模企业级应用。

  • 基于函数计算部署:适合无服务器架构的应用场景,但计费模式和调试难度较高,限制了其广泛应用。

  • 基于 GPU 云服务器部署:提供了最大的灵活性和性能,但较高的技术门槛和运维成本使其更适合专业团队使用。

是否愿意采用:
我会选择继续采用基于百炼 API 调用满血版的方式来使用 DeepSeek 模型,因为它在满足需求的同时,最大限度地降低了开发和维护成本。然而,对于一些特定的高性能需求场景,我也会考虑基于 GPU 云服务器的部署方式。

改进建议:

  • 进一步简化 GPU 云服务器的部署流程,提供更多的自动化工具和预配置镜像。
  • 函数计算的计费模式可以更加透明,提供详细的费用估算工具,帮助用户更好地控制成本。

阿里云的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种灵活的部署方式,适用于不同的应用场景和技术水平。通过本次评测,我认为基于百炼 API 调用满血版的方式最适合大多数用户的需求,同时希望阿里云能够在文档完善和技术支持方面持续改进,为用户提供更好的使用体验。如果你正在寻找一种高效、可靠的深度学习模型部署方案,阿里云的 DeepSeek 解决方案值得尝试。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/16900.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

第二天:工具的使用

每天上午9点左右更新一到两篇文章到专栏《Python爬虫训练营》中,对于爬虫有兴趣的伙伴可以订阅专栏一起学习,完全免费。 键盘为桨,代码作帆。这趟为期30天左右的Python爬虫特训即将启航,每日解锁新海域:从Requests库的…

vue项目 Axios创建拦截器

Axios 1. Axios 和 Ajax 简介2. Axios 和 Ajax 的区别3. 从 按钮 到 Axios请求后端接口的 大致顺序 1. Axios 和 Ajax 简介 Ajax(Asynchronous JavaScript and XML) 不是一种技术,而是一个编程技术概念,核心是通过 XMLHttpReques…

windows + visual studio 2019 使用cmake 编译构建静、动态库并调用详解

环境 windows visual studio 2019 visual studio 2019创建cmake工程 1. 静态库.lib 1.1 静态库编译生成 以下是我创建的cmake工程文件结构,只关注高亮文件夹部分 libout 存放编译生成的.lib文件libsrc 存放编译用的源代码和头文件CMakeLists.txt 此次编译CMak…

通过 VBA 在 Excel 中自动提取拼音首字母

在excel里面把表格里的中文提取拼音大写缩写怎么弄 在Excel中,如果你想提取表格中的中文字符并转换为拼音大写缩写(即每个汉字的拼音首字母的大写形式),可以通过以下步骤来实现。这项工作可以分为两个主要部分: 提取拼…

通过环境变量实现多个 python 版本的自由切换以及 Conda 虚拟环境的使用教程

目录 Python 安装包的下载和安装通过环境变量的方式来切换不同的 Python 版本Pycharm 创建项目使用虚拟环境 使用虚拟环境管理工具 condaConda 教程1. **环境管理**创建虚拟环境激活虚拟环境退出虚拟环境列出所有虚拟环境删除虚拟环境导出虚拟环境配置从文件创建虚拟环境 2. **…

排序算法详解、应用对比与C语言实现

四种经典排序算法详解(原理动图代码) 一、排序算法的重要性 排序算法是计算机科学领域最基础的算法之一,在数据库索引、搜索引擎优化、大数据分析等领域有广泛应用。根据Stack Overflow 2022开发者调查,超过83%的面试会考察算法…

Python基于Django的微博热搜、微博舆论可视化系统(V3.0)【附源码】

博主介绍:✌Java老徐、7年大厂程序员经历。全网粉丝12w、csdn博客专家、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ 🍅文末获取源码联系🍅 👇🏻 精彩专栏推荐订阅👇&…

网络安全ids是什么意思

1、 简述IPS和IDS的异同点; 入侵检测系统(IDS) IDS(Intrusion Detection Systems,入侵检测系统),专业上讲就是依照一定的安全策略,对网络、系统、运行状况进行监视,尽可能…

JVM春招快速学习指南

1.说在前面 在Java相关岗位的春/秋招面试过程中,JVM的学习是必不可少的。本文主要是通过《深入理解Java虚拟机》第三版来介绍JVM的学习路线和方法,并对没有过JVM基础的给出阅读和学习建议,尽可能更加快速高效的进行JVM的学习与秋招面试的备战…

json格式,curl命令,及轻量化处理工具

一. JSON格式 JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式。它基于一个子集的JavaScript编程语言,使用人类易于阅读的文本格式来存储和表示数据。尽管名字中有“JavaScript”,但JSON是语言无关的,几…

echarts 3d中国地图飞行线

一、3D中国地图 1. 一定要使用 echarts 5.0及以上的版本; 2. echarts 5.0没有内置中国地图了。点击下载 china.json; 3. 一共使用了四层地图。 (1)第一层是中国地图各省细边框和展示南海诸岛; (2)第二层是…

从 0 开始本地部署 DeepSeek:详细步骤 + 避坑指南 + 构建可视化(安装在D盘)

个人主页:chian-ocean 前言: 随着人工智能技术的迅速发展,大语言模型在各个行业中得到了广泛应用。DeepSeek 作为一个新兴的 AI 公司,凭借其高效的 AI 模型和开源的优势,吸引了越来越多的开发者和企业关注。为了更好地…

[AI]Mac本地部署Deepseek R1模型 — — 保姆级教程

[AI]Mac本地部署DeepSeek R1模型 — — 保姆级教程 DeepSeek R1是中国AI初创公司深度求索(DeepSeek)推出大模型DeepSeek-R1。 作为一款开源模型,R1在数学、代码、自然语言推理等任务上的性能能够比肩OpenAI o1模型正式版,并采用MI…

Linux(socket网络编程)TCP连接

Linux(socket网络编程)TCP连接 基础文件目录函数系统进程控制函数fork()exec系列函数void abort(void)void assert(int expression)void exit(int status)void _exit(int status)int atexit(void (*func)(void))int on_exit(void (*function)(int,void*)…

408-数据结构

数据结构在学什么? 1.用代码把问题信息化 2.用计算机处理信息 ch1 数据:数据是信息的载体,是描述客观事物属性的数、字符及所有能输入到计算机中并被计算机程序识别和处理的符号的集合。数据是计算机程序加工的原料。 ch2 //假设线性表…

Go语言开发桌面应用基础框架(wails v3)-开箱即用框架

前言 本文是介绍如何集成好了Wails3开发框架以及提供视频教程,当你需要桌面开发时,直接下载我们基础框架代码,开箱即用不用配置开发需要依赖。 为什么使用v3版本,主要是v3新增的功能 ​支持多个窗口:在单个应用程序…

Git 与 Git常用命令

Git 是一个开源的分布式版本控制系统,广泛用于源代码管理。与传统的集中式版本控制系统不同,Git 允许每个开发者在本地拥有完整的代码库副本,支持离线工作和高效的分支管理。每次提交时,Git 会对当前项目的所有文件创建一个快照&a…

尚硅谷爬虫note004

一、urllib库 1. python自带,无需安装 # _*_ coding : utf-8 _*_ # Time : 2025/2/11 09:39 # Author : 20250206-里奥 # File : demo14_urllib # Project : PythonProject10-14#导入urllib.request import urllib.request#使用urllib获取百度首页源码 #1.定义一…

老WinForm中一个执行文件使用SQLite数据库

EF6在老WinForm中停止更新了,但如果只是在win10上面使用,老的.net Framework 4.8框架有一个优势,编译后的执行文件很小。还有一些老类库也只能在老的.net Framework 4.8框架使用,所以微软还是保留了老的.net Framework 4.8框架。 …

diff算法简析

diff算法的核心目的是用最少的步骤找出新旧节点的差异,从而更新视图。 diff算法是一种通过同层的树节点进行比较的高效算法,探讨的是虚拟DOM树发生变化后,生成DOM树更新补丁的方式。对比新旧两株虚拟DOM树的差异,将更新补丁作用于…