【DeepSeek系列】04 DeepSeek-R1:带有冷启动的强化学习

文章目录

    • 1、简介
    • 2、主要改进点
    • 3、两个重要观点
    • 4、四阶段后训练详细步骤
      • 4.1 冷启动
      • 4.2 推理导向的强化学习
      • 4.3 拒绝采样和有监督微调
      • 4.4 针对所有场景的强化学习
    • 5、蒸馏与强化学习对比
    • 6、评估
      • 6.1 DeepSeek-R1 评估
      • 6.2 蒸馏模型评估
    • 7、结论
    • 8、局限性与未来方向

1、简介

DeepSeek-R1-Zero的提出,展现了其强大的推理能力,但是它也有一些缺点,例如可读性差和语言混用。为了解决这些问题并进一步提升推理性能,进一步推出了 DeepSeek-R1,它在 RL 之前引入了多阶段训练和冷启动数据。DeepSeek-R1 在推理任务上的表现与 OpenAI-o1-1217 相当。为了支持研究社区,团队开源了 DeepSeek-R1-Zero、DeepSeek-R1 以及基于 Qwen 和 Llama 从 DeepSeek-R1 蒸馏出的六个密集模型(1.5B、7B、8B、14B、32B、70B)。
在这里插入图片描述

2、主要改进点

DeepSeek-R1结合了少量冷启动数据和多阶段训练流程。具体而言:

  • 首先收集数千条冷启动数据(长链式思考CoT示例)以微调 DeepSeek-V3-Base 模型。
  • 随后,像 DeepSeek-R1-Zero 一样进行推理导向的 RL 训练。
  • 在 RL 训练接近收敛时,通过拒绝采样在 RL 权重文件上生成新的 SFT 数据,并结合 DeepSeek-V3 在写作、事实问答和自我认知等领域的监督数据,然后重新训练 DeepSeek-V3-Base 模型。
  • 经过新数据的微调后,模型权重会经历一个额外的 RL 过程,涵盖所有场景的提示。经过这些步骤,得到了一个称为 DeepSeek-R1 的模型,其表现与 OpenAI-o1-1217 相当。

团队进一步探索了从 DeepSeek-R1 到更小密集模型的知识蒸馏。使用 Qwen2.532B(Qwen, 2024b)作为基础模型,直接从 DeepSeek-R1 进行蒸馏的表现优于在其上应用 RL。这表明,大型基础模型发现的推理模式对于提升推理能力至关重要。团队开源了基于 Qwen 和 Llama(Dubey et al., 2024)系列的蒸馏模型。值得注意的是,蒸馏出的 14B 模型大幅超越了当前最先进的开源模型 QwQ-32B-Preview(Qwen, 2024a),而蒸馏出的 32B 和 70B 模型在密集模型的推理基准测试中创下了新的记录。

3、两个重要观点

后训练:在基础模型上进行大规模强化学习

  • 直接在基础模型上应用 RL,而不依赖于有监督的微调(SFT)作为初步步骤。这种方法允许模型探索解决复杂问题的链式思考(CoT),从而开发出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展示了自我验证、反思和生成长链式思考的能力,这标志着研究社区的一个重要里程碑。值得注意的是,这是首次公开研究验证 LLMs 的推理能力可以通过纯 RL 激励,而无需 SFT。这一突破为该领域的未来发展铺平了道路。
  • 介绍了开发 DeepSeek-R1 的流程。该流程包含两个 RL 阶段,旨在发现改进的推理模式并与人类偏好对齐,以及两个 SFT 阶段,作为模型推理和非推理能力的种子。我们相信这一流程将有助于行业开发更好的模型。

蒸馏:小模型也可以很强大

  • 证明了大型模型的推理模式可以被蒸馏到小模型中,其表现优于通过在小模型上应用 RL 发现的推理模式。开源的 DeepSeek-R1 及其 API 将有助于研究社区在未来蒸馏出更好的小模型。
  • 使用 DeepSeek-R1 生成的推理数据,我们微调了研究社区广泛使用的几种密集模型。评估结果表明,蒸馏后的小型密集模型在基准测试中表现出色。例如,DeepSeek-R1-Distill-Qwen-7B 在 AIME 2024 上达到了 55.5%,超过了 QwQ-32B-Preview。此外,DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 上达到了 72.6%,在 MATH-500 上达到了 94.3%,在 LiveCodeBench 上达到了 57.2%。这些结果显著优于之前的开源模型,并且与 o1-mini 相当。我们开源了基于 Qwen2.5 和 Llama3 系列的 1.5B、7B、8B、14B、32B 和 70B 检查点,供社区使用。

4、四阶段后训练详细步骤

受 DeepSeek-R1-Zero 令人鼓舞的结果启发,自然会提出两个问题:

  • 1)通过引入少量高质量数据作为冷启动,是否可以进一步提升推理性能或加速收敛?
  • 2)如何训练一个用户友好的模型,使其不仅能够生成清晰连贯的推理过程(Chain-of-Thought, CoT),还能展现出强大的通用能力?

为了解决这些问题,我们设计了训练 DeepSeek-R1 的流程。该流程包含四个阶段,具体如下。

4.1 冷启动

与 DeepSeek-R1-Zero 不同,为了避免从基础模型开始的 RL 训练在早期不稳定,DeepSeek-R1构建并收集了少量长链式思考(CoT)数据,用于微调模型作为初始的 RL 。为了收集这些数据,我们探索了多种方法:

  • 使用长 CoT 示例作为少样本提示,直接提示模型生成带有反思和验证的详细答案,收集 DeepSeek-R1-Zero 输出并将其格式化为可读格式;
  • 以及通过人类标注者对结果进行后处理以优化结果。

在本工作中,我们收集了数千条冷启动数据,用于微调 DeepSeek-V3-Base 作为 RL 的起点。与 DeepSeek-R1-Zero 相比,冷启动数据的优势包括:

  • 可读性:DeepSeek-R1-Zero 的一个关键限制是其内容往往不适合阅读。回答可能会混用多种语言,或者缺乏用于突出显示答案的 Markdown 格式。相比之下,在为 DeepSeek-R1 创建冷启动数据时,我们设计了一种可读的模式,包括在每条回答的末尾添加总结,并过滤掉对读者不友好的回答。在这里,我们定义输出格式为 |特殊标记|<推理过程>|特殊标记|<总结>,其中推理过程是查询的 CoT,总结用于概括推理结果。
  • 潜力:通过精心设计冷启动数据的模式并引入人类先验知识,我们观察到与 DeepSeek-R1-Zero 相比,模型表现更好。我们相信迭代训练是推理模型的更好方式。

4.2 推理导向的强化学习

在使用冷启动数据对 DeepSeek-V3-Base 进行微调后,我们应用了与 DeepSeek-R1-Zero 中相同的强化学习训练过程。这一阶段专注于提升模型在推理密集型任务(如编程、数学、科学和逻辑推理)中的推理能力,这些任务涉及定义明确且有明确答案的问题。

在训练过程中,我们观察到 CoT 经常出现语言混用,尤其是在涉及多种语言的 RL 提示时。为了缓解 CoT 中的语言混用问题,我们在 RL 训练中引入了语言一致性奖励,该奖励计算为 CoT 中目标语言单词的比例。尽管消融实验表明,这种对齐会导致模型性能略有下降,但这种奖励与人类偏好一致,使输出更具可读性。

最后,我们将推理任务的准确性奖励语言一致性奖励直接相加,形成最终的奖励。然后我们在推理任务上对微调后的模型进行强化学习训练,直到模型收敛。

4.3 拒绝采样和有监督微调

当推理导向的强化学习收敛时,我们利用上述训练阶段得到的模型来收集下一轮的有监督微调(SFT)数据。与初始的冷启动数据(主要关注推理)不同,这一阶段结合了其他领域的数据,以增强模型在写作、角色扮演和其他通用任务中的能力。具体来说,我们按照以下方式生成数据并微调模型:

推理数据

  • 我们策划了推理提示,并通过拒绝采样从上述强化学习训练阶段得到的模型生成推理轨迹。在前一阶段,我们仅包含可以使用基于规则的奖励进行评估的数据。然而,在这一阶段,我们通过扩展数据集,引入了一些额外的数据,其中一些使用生成式奖励模型,通过将真实答案和模型预测输入 DeepSeek-V3 进行判断。此外,由于模型输出有时会显得混乱且难以阅读,我们过滤掉了混用语言、长段落和代码块的 CoT。对于每个提示,我们采样多个回答,并仅保留正确的回答。总共收集了约 60 万条与推理相关的训练样本。

非推理数据

  • 对于非推理数据(如写作、事实问答、自我认知和翻译),我们采用了 DeepSeek-V3 的流程,并重用了 DeepSeek-V3 SFT 数据集的部分内容。对于某些非推理任务,我们通过提示 DeepSeek-V3 生成潜在的 CoT,然后回答问题。然而,对于更简单的问题(如“你好”),我们不会提供 CoT 回答。最终,我们总共收集了约 20 万条与推理无关的训练样本。

我们使用上述策划的约 80 万样本数据集对 DeepSeek-V3-Base 进行了两个周期的微调。

4.4 针对所有场景的强化学习

为了进一步使模型与人类偏好对齐,我们实施了第二个强化学习阶段,旨在提升模型的有用性和无害性,同时优化其推理能力。具体来说,我们使用组合的奖励信号和多样化的提示分布来训练模型。

  • 对于推理数据,我们遵循 DeepSeek-R1-Zero 中描述的方法,使用基于规则的奖励来指导数学、编程和逻辑推理领域的学习过程。
  • 对于通用数据,我们则依赖于奖励模型来捕捉复杂且微妙场景中的人类偏好。我们基于 DeepSeek-V3 流程,采用了类似的偏好对和训练提示分布。
  • 在有用性方面,我们仅关注最终总结,确保评估侧重于回答对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰。
  • 在无害性方面,我们评估模型的整个回答,包括推理过程和总结,以识别和减轻在生成过程中可能出现的任何潜在风险、偏见或有害内容。

最终,通过整合奖励信号和多样化的数据分布,我们训练出的模型不仅在推理方面表现出色,还优先考虑了有用性和无害性。

5、蒸馏与强化学习对比

作者在 Qwen-32B-Base 模型上进行了大规模强化学习训练,使用数学、编程和 STEM 相关数据,训练了超过 10,000 步,最终得到了 DeepSeek-R1-Zero-Qwen-32B。实验结果如表 6 所示,经过大规模强化学习训练的 32B 基础模型,其性能与 QwQ-32B-Preview 相当。然而,通过 DeepSeek-R1 蒸馏得到的 DeepSeek-R1-Distill-Qwen-32B 在所有基准测试中均显著优于 DeepSeek-R1-Zero-Qwen-32B
因此,我们可以得出以下两个结论:

  • 蒸馏的优势将更强大的模型能力蒸馏到小型模型中能够取得优异的结果,而小型模型仅依靠本文提到的大规模强化学习,需要巨大的计算资源,并且可能无法达到蒸馏的效果。
  • 超越的挑战:尽管蒸馏策略既经济又高效,但要突破智能的边界,可能仍需要更强大的基础模型和更大规模的强化学习

简而言之:小模型+蒸馏(使用DeepSeek-R1生成的数据)> 小模型 + 大规模强化学习训练的效果

6、评估

6.1 DeepSeek-R1 评估

表 4 展示了 DeepSeek-R1 与其他代表性模型在多个基准测试上的对比结果。在教育导向的知识基准测试(如 MMLU、MMLU-Pro 和 GPQA Diamond)中,DeepSeek-R1 相较于 DeepSeek-V3 展现出更优的性能。这一改进主要归因于在 STEM 相关问题上的准确率提升,而这些提升得益于大规模强化学习的应用。此外,DeepSeek-R1 在 FRAMES(一个依赖长文本上下文的问答任务)上表现出色,展现了其强大的文档分析能力。这突显了推理模型在 AI 驱动的搜索和数据分析任务中的潜力。在事实基准测试 SimpleQA 上,DeepSeek-R1 优于 DeepSeek-V3,显示出其处理基于事实查询的能力。在这一基准测试中,OpenAI-o1 同样超越了 GPT-4o。

然而,在中文 SimpleQA 基准测试中,DeepSeek-R1 的表现不如 DeepSeek-V3,主要原因在于经过安全性强化学习后,DeepSeek-R1 倾向于拒绝回答某些查询。在不进行安全性强化学习的情况下,DeepSeek-R1 的准确率可以超过 70%。
在这里插入图片描述
在 IF-Eval(一个用于评估模型遵循格式指令能力的基准测试)上,DeepSeek-R1 也取得了显著的成果。这些改进与在最终阶段的有监督微调(SFT)强化学习训练中引入的指令遵循数据密切相关。此外,在 AlpacaEval 2.0 和 ArenaHard 上,DeepSeek-R1 的表现尤为突出,表明其在写作任务和开放域问答中的优势。其显著优于 DeepSeek-V3 的表现进一步证明了大规模强化学习的泛化优势,这不仅提升了推理能力,还改善了模型在多样化领域的表现。此外,DeepSeek-R1 生成的总结长度较为简洁,在 ArenaHard 上平均为 689 个标记,在 AlpacaEval 2.0 上为 2218 个字符。这表明 DeepSeek-R1 在基于 GPT 的评估中避免了引入长度偏差,进一步巩固了其在多任务中的稳健性。

在数学任务上,DeepSeek-R1 的表现与 OpenAI-o1-1217 相当,在多数基准测试中大幅领先于其他模型。在编程算法任务(如 LiveCodeBench 和 Codeforces)上,以推理为导向的模型主导了这些基准测试。在工程导向的编程任务上,OpenAI-o1-1217 在 Aider 上的表现优于 DeepSeek-R1,但在 SWE Verified 上表现相当。我们相信,随着相关强化学习训练数据量的增加,DeepSeek-R1 在工程任务上的表现将在下一个版本中得到提升,因为目前这一领域的数据量仍然非常有限。

6.2 蒸馏模型评估

如 表 5 所示,仅通过对 DeepSeek-R1 的输出进行蒸馏,高效的小型模型 DeepSeek-R1-7B(即 DeepSeek-R1-Distill-Qwen-7B,以下简写为类似形式)在各项指标上均优于不具推理能力的模型,例如 GPT-4o-0513。DeepSeek-R1-14B 在所有评估指标上均超越了 QwQ-32B-Preview,而 DeepSeek-R1-32B 和 DeepSeek-R1-70B 在大多数基准测试中显著优于 o1-mini。这些结果表明了蒸馏方法的强大潜力。此外,我们发现对这些蒸馏模型应用强化学习(RL)可以带来显著的进一步提升。我们相信这一方向值得进一步探索,因此在此仅展示了简单通过有监督微调(SFT)蒸馏的模型结果。
在这里插入图片描述

7、结论

在本研究中,我们分享了通过强化学习提升模型推理能力的探索过程。DeepSeek-R1-Zero 代表了一种纯粹的强化学习方法,不依赖于冷启动数据,却在各项任务中展现出强大的性能。而 DeepSeek-R1 更为强大,它借助冷启动数据以及迭代式的强化学习微调,最终在一系列任务上的表现与 OpenAI-o1-1217 相当。

我们进一步探索了将推理能力蒸馏到小型密集模型的可能性。我们以 DeepSeek-R1 作为教师模型,生成了 800K 条训练样本,并用于微调多个小型密集模型。结果令人鼓舞:例如,DeepSeek-R1-Distill-Qwen-1.5B 在数学基准测试 AIME 上达到了 28.9% 的准确率,在 MATH-500 上达到了 83.9% 的准确率,显著优于基于相同底层模型微调的其他指令模型。其他密集模型也在各项基准测试中取得了令人印象深刻的成绩,大幅超越了其他指令微调模型。

8、局限性与未来方向

在未来的研究中,计划在以下方向上投入更多精力:

  • 通用能力提升:目前,DeepSeek-R1 在某些任务上的表现仍不如 DeepSeek-V3,例如函数调用、多轮对话、复杂角色扮演和 JSON 输出。未来,我们将探索如何利用长链式思考(CoT)来增强这些领域的表现。
  • 语言混用问题:DeepSeek-R1 当前主要针对中文和英文进行了优化,这可能导致在处理其他语言的查询时出现语言混用问题。例如,即使查询语言不是中文或英文,DeepSeek-R1 也可能使用英文进行推理和回答。我们计划在未来版本中解决这一局限性。
  • 提示工程:在评估 DeepSeek-R1 时,我们发现模型对提示非常敏感,少样本提示往往会降低其性能。因此,我们建议用户直接描述问题,并在零样本设置中指定输出格式,以获得最佳结果。
  • 软件工程任务:由于长时评估会影响强化学习的效率,大规模强化学习尚未广泛应用于软件工程任务。因此,DeepSeek-R1 在软件工程基准测试上的表现尚未显著优于 DeepSeek-V3。未来版本将通过在软件工程数据上实施拒绝采样,或在强化学习过程中引入异步评估来提高效率,从而解决这一问题。

因本人水平有限,欢迎大家评论区批评指正!一起交流学习!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/20794.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Compose常用UI组件

Compose常用UI组件 概述Modifier 修饰符常用Modifier修饰符作用域限定Modifier Modifier 实现原理Modifier.Element链的构建链的解析 常用基础组件文字组件图片组件按钮组件选择器对话框进度条 常用布局组件线性布局帧布局 列表组件 概述 Compose 预置了很多基础组件&#xff…

Ansys EMC Plus:HIRF 与飞机耦合演示

在本篇博文中&#xff0c;我们将深入探讨 EMC Plus 高强度辐射场 (HIRF) 与软件示例中提供的飞机演示的耦合。本概述将指导您完成整个工作流程&#xff0c;从设置问题空间到基本后处理&#xff0c;包括材料属性分配和创建探针。 概述 在本演示中&#xff0c;下图所示的预先简化…

DeepSeek + Mermaid编辑器——常规绘图

下面这张图出自&#xff1a;由清华大学出品的 《DeepSeek&#xff1a;从入门到精通》。 作为纯文本生成模型&#xff0c;DeepSeek虽不具备多媒体内容生成接口&#xff0c;但其开放式架构允许通过API接口与图像合成引擎、数据可视化工具等第三方系统进行协同工作&#xff0c;最终…

红蓝对抗之常见网络安全事件研判、了解网络安全设备、Webshell入侵检测

文章目录 ​​研判&#xff08;入侵检测&#xff09;​​ ​​设备​​ ​​经典网络​​​​云网络​​ ​​异常HTTP请求​​​​Webshell分析​​ ​​Webshell 的分类​​​​Webshell 的检测​​ ​​主机层面​​​​流量层面​​ ​​附录​​ ​​常见端口漏洞…

基于levmar(Levenberg-Marquardt 非线性最小二乘优化库)的椭圆拟合

1. 包含必要的头文件 #include <opencv2/core.hpp> #include <opencv2/imgproc.hpp> #include <opencv2/highgui.hpp> #include <vector> #include <cmath>2. 定义生成椭圆点的函数 编写一个函数&#xff0c;接受椭圆的中心坐标、长轴半径、短…

Fastgpt学习(5)- FastGPT 私有化部署问题解决

1.☺ 问题描述&#xff1a; Windows系统&#xff0c;本地私有化部署&#xff0c;postgresql数据库镜像日志持续报错" data directory “/var/lib/postgresql/data” has invalid permissions "&#xff0c;“ DETAIL: Permissions should be urwx (0700) or urwx,gr…

基于SpringBoot+vue粮油商城小程序系统

粮油商城小程序为用户提供方便快捷的在线购物体验&#xff0c;包括大米、面粉、食用油、调味品等各种粮油产品的选购&#xff0c;用户可以浏览商品详情、对比价格、下单支付等操作。同时&#xff0c;商城还提供优惠活动、积分兑换等福利&#xff0c;让用户享受到更多实惠和便利…

Python编程之数据分组

有哪些方式可以进行数据分组利用Pandas库进行分组使用itertools库的groupby分组操作构建Python字典方式实现(小规模数据,不适用数量特别大的情况,不需要依赖其它python库)利用NumPy的groupby函数分组操作利用Python的Dask库提供的函数进行分组下面看一个如何去实现坐标数据…

【Linux】认识协议、Mac/IP地址和端口号、网络字节序、socket套接字

⭐️个人主页&#xff1a;小羊 ⭐️所属专栏&#xff1a;Linux 很荣幸您能阅读我的文章&#xff0c;诚请评论指点&#xff0c;欢迎欢迎 ~ 目录 1、初识协议2、Mac、IP地址3、端口号4、网络字节序5、socket 1、初识协议 协议就是一种约定。如何让不同厂商生产的计算机之间能…

ubuntu 安装docker

ubuntu 安装docker 官网地址 https://docs.docker.com/engine/install/ubuntu/ 尽量根据官网的来&#xff0c;网上找的很多都是一大堆各种报错 卸载旧版本 新机器不需要操作 卸载的非官方包是&#xff1a; docker.iodocker-composedocker-compose-v2docker-docpodman-docker…

环境变量2

目录 环境变量PATH 如何改变PATH 我们今天继续来学习环境变量2&#xff01;&#xff01;&#xff01; 环境变量PATH PATH的作用是知道命令的搜索路径&#xff0c;我们都知道Linux上的命令行指令&#xff0c;ll&#xff0c;pwd什么的为什么我们写出来系统就知道是什么并且运…

网络安全中的机器学习

当涉及到网络安全时&#xff0c;技术一直是保护系统免受攻击和数据泄露的关键。在这篇论文中&#xff0c;我将介绍一些当前在网络安全领域使用的关键技术&#xff0c;包括加密&#xff0c;身份验证和防火墙。 首先&#xff0c;加密是网络安全中最常见的技术之一。加密是指使用算…

sass报错:[sass] Undefined variable. @import升级@use语法注意事项

今天创建vue3项目&#xff0c;迁移老项目代码&#xff0c;使用sass的时候发现import语法已经废弃&#xff0c;官方推荐使用use替换。 这里我踩了一个坑找半天的问题&#xff0c;原因是sass升级到1.85之后 定义变量前加上 - 就是表示变量私有&#xff0c;即使使用use导出 在新的…

嵌入式经常用到串口,如何判断串口数据接收完成?

说起通信&#xff0c;首先想到的肯定是串口&#xff0c;日常中232和485的使用比比皆是&#xff0c;数据的发送、接收是串口通信最基础的内容。这篇文章主要讨论串口接收数据的断帧操作。 空闲中断断帧 一些mcu&#xff08;如&#xff1a;stm32f103&#xff09;在出厂时就已经在…

激光雷达YDLIDAR X2 SDK安装

激光雷达YDLIDAR X2 SDK安装 陈拓 2024/12/15-2024/12/19 1. 简介 YDLIDAR X2官方网址https://ydlidar.cn/index.html‌YDLIDAR X2 YDLIDAR X2是一款高性能的激光雷达传感器&#xff0c;具有以下主要特点和规格参数‌&#xff1a; ‌测距频率‌&#xff1a;3000Hz ‌扫描频…

deepseek本地调用

目录 1.介绍 2.开始调用 2.1模型检验 2.2 通过url调用 3.总结 1.介绍 这篇博客用来教你如何从本地调用ollama中deepseek的模型接口&#xff0c;直接和deepseek进行对话。 2.开始调用 2.1模型检验 首先要保证ollama已经安装到本地&#xff0c;并且已经下载了deepseek模型…

word$deepseep

1、进入官网地址。 DeepSeek 2、进入DeepSeek的API文档 3、点击DeepSeek开放平台左侧的“API Keys”, 再点击“创建API Key” 4、在弹出的对话框中&#xff0c;输入自己的API Key名称&#xff0c;点击创建。 sk-0385cad5e19346a0a4ac8b7f0d7be428 5、打开Word文档。 6、Word找…

自制简单的图片查看器(python)

图片格式&#xff1a;支持常见的图片格式&#xff08;JPG、PNG、BMP、GIF&#xff09;。 import os import tkinter as tk from tkinter import filedialog, messagebox from PIL import Image, ImageTkclass ImageViewer:def __init__(self, root):self.root rootself.root.…

DeepSeek多模态统一模型Janus算法解析

&#xfeff;DeepSeek多模态统一模型算法解析与功能抢先体验 &#xfeff; 多模态统一模型是一种能够同时处理多模态输入&#xff08;如文本、图像、视频等&#xff09;并进行理解和生成任务的人工智能模型。这种模型可以将将多模态理解&#xff08;如视觉问答、图像描述等&a…

分享8款AI生成PPT的工具!含测评

随着人工智能技术的飞速进步&#xff0c;制作PPT变得愈发便捷&#xff0c;仅需输入主题指令&#xff0c;便能在瞬间获得一份完整的演示文稿。尤其在制作篇幅较长的PPT时&#xff0c;手动编写每一页内容并设计格式和排版&#xff0c;不仅效率低下&#xff0c;而且耗时耗力。 本…