从DeepSeek的爆火来看大模型微调技术的发展方向

“深度人工智能”是成都深度智谷科技旗下的人工智能教育机构订阅号,主要分享人工智能的基础知识、技术发展、学习经验等。此外,订阅号还为大家提供了人工智能的培训学习服务和人工智能证书的报考服务,欢迎大家前来咨询,实现自己的AI梦!

在人工智能历史上发展最快、离生产力最近的阶段,便是从2023年开始的这两三年。2023年初,大模型技术的迅猛发展席卷了各行各业,尤其是到了2025年春节期间,火遍全国的DeepSeek更是成为了家喻户晓的名字。毫不夸张地说,连扫大街的阿姨都在问:“DeepSeek是干啥的?”这种现象不仅反映了人工智能技术的普及,也体现了大模型对社会各阶层的深远影响。

以DeepSeek为代表的各类大模型,正在国内政府机构、高校、企业中掀起一场浩浩荡荡的应用浪潮。例如,广西南宁宾阳县委书记在参加当地政协会议分组讨论时,向参会人员明确提出要求:每个人都要学会使用DeepSeek,如果能力强的,还要多学几个类似工具。这一现象的背后,折射出大模型技术在实际工作中的重要性和普及趋势。而推动这一趋势的核心原因,可以归纳为一个词:解放生产力!更简单直白地说,就是降低工作成本,让工作变得更高效,减轻人们的劳动负担,同时创造更多财富。

大模型解放生产力的方式多种多样。首先,它能够显著提升工作效率,自动化处理大量重复性任务,如文档整理、数据分析、报告生成等,从而减少人工操作的时间和成本。其次,大模型通过自然语言交互降低了技术门槛,使得复杂的技术工具变得易于使用,即使是非技术人员也能快速上手,完成专业任务。此外,大模型在科研、设计、创作等领域提供了强大的辅助工具,帮助人们更快地实现创意和突破。在企业和政府机构中,大模型还可以帮助优化决策流程,提高资源利用效率,从而创造更大的经济价值。


01

DeepSeek持续爆火背后的原因

DeepSeek的爆火不仅是因为其技术领先,更因为它真正解决了实际问题。在政府机构中,DeepSeek被用于政策分析、公文撰写和公共服务优化,提升了行政效率。在高校中,DeepSeek辅助教学和研究,帮助学生和教师更快地获取知识、完成论文和实验设计。在企业中,DeepSeek被广泛应用于市场分析、客户服务、产品设计等环节,帮助企业降低成本、提高竞争力。这些实际应用场景充分展示了大模型技术的巨大潜力。

随着大模型技术的不断成熟,解放生产力的潜力将进一步释放。未来,大模型可能会在更多领域实现深度应用。例如,在医疗领域,它可以辅助诊断、药物研发和个性化治疗;在教育领域,它可以实现个性化学习、智能辅导和教学资源优化;在制造业,它可以推动智能生产、质量检测和供应链管理。这些应用场景不仅会进一步提升生产效率,还将为社会创造更多的经济价值和发展机遇。

当然,这些现象为什么在国内其他大模型发布的时候没有出现呢?这里就只分析几点主要因素:

第一,DeepSeek-R1模型并不是单纯的提示词微调(prompt fine-tuning)模型,即它不是单纯的指令型语言模型。指令型语言模型在使用时必须要严格遵循提示词指令,这也催生了一个新兴岗位——提示词工程师。然而,DeepSeek-R1实际上结合了提示词微调和推理微调(Reasoning Fine-tuning)的技术,它并不完全受制于提示词的限制。也就是说,即使你是一个不懂提示词设计的普通人,也能用自然的语言与它顺畅地沟通交流。因此,DeepSeek-R1并不是传统的指令型语言模型,而是真正意义上的推理型语言模型。这是DeepSeek在大众人群中爆火的主要原因之一。可以想象一下,如果一个模型输出的结果总是与你的期望不符,或者总是差那么一点意思,你很难对它产生兴趣。而DeepSeek的输出却让人感觉它真的在与人沟通一样。不信你可以尝试和它“吵架”,告诉它让输出的语言犀利刻薄一些,你会发现,你完全赢不了它。

第二,DeepSeek的成功还在于其强大的泛化能力和用户体验优化。与许多大模型不同,DeepSeek不仅在技术上实现了突破,还特别注重用户的实际使用感受。它能够理解更复杂的上下文,甚至能够捕捉到用户语言中的隐含意图,从而提供更加精准和人性化的回复。这种能力使得DeepSeek在普通用户中迅速普及,甚至成为了许多人日常工作和生活中的得力助手。无论是学生用它辅助学习,还是职场人士用它提高工作效率,DeepSeek都能提供超出预期的支持。

第三,DeepSeek的推理模型是开源免费的,甚至连API的调用费用也打穿了行业的底线。这一点对于任何一个想要推广和发展生态的模型来说都至关重要。开源免费的特性不仅降低了技术使用的门槛,还为广大开发者、企业和个人提供了极大的便利。如果一个模型在输出能力和应用场景上已经超越了其他同类产品,同时还具备开源免费商用的特点,那么无论是个人开发者、初创企业,还是大型机构,都会毫不犹豫地选择它。这种吸引力不仅限于普通用户,更会吸引众多行业上下游的企业和开发者,利用这一模型创建更多的创新应用和解决方案。

开源免费的模式为DeepSeek带来了巨大的生态优势。首先,它吸引了大量的开发者社区参与,推动了技术的快速迭代和优化。开发者可以基于DeepSeek的源代码进行二次开发,定制化适合自己需求的功能,从而加速了技术的普及和应用。其次,对于企业来说,开源免费意味着更低的成本和更高的灵活性。企业无需支付高昂的授权费用,就可以将DeepSeek集成到自己的产品和服务中,从而快速实现智能化升级。此外,API调用的低成本也使得中小企业甚至个人开发者能够轻松接入这一强大的技术,进一步扩大了DeepSeek的应用范围。

这种开源免费的策略不仅帮助DeepSeek迅速占领了市场,还为其构建了一个庞大的生态系统。从教育、医疗到金融、制造,各行各业都可以基于DeepSeek开发出适合自身领域的智能化工具。例如,在教育领域,开发者可以基于DeepSeek构建智能辅导系统;在医疗领域,可以开发辅助诊断工具;在金融领域,可以创建智能客服和风险评估系统。这些应用不仅提升了行业效率,也为DeepSeek的技术生态注入了更多活力。

DeepSeek通过开源免费和低成本的API调用策略,成功打破了行业壁垒,吸引了广泛的用户和开发者群体。这种开放和包容的模式不仅加速了技术的普及,还为各行各业的智能化转型提供了强有力的支持。正是这种“技术普惠”的理念,使得DeepSeek在竞争激烈的大模型领域中脱颖而出,成为了推动人工智能技术发展的中坚力量。

此外,DeepSeek的爆火还得益于其低门槛的使用方式。许多大模型虽然技术先进,但对用户的技术要求较高,普通用户往往需要学习复杂的提示词设计才能充分发挥其能力。而DeepSeek通过结合推理微调技术,大大降低了使用门槛,使得任何人都能轻松上手。这种“亲民”的特性,使得DeepSeek迅速渗透到社会的各个角落,甚至成为了茶余饭后的谈资。

DeepSeek之所以能在国内其他大模型发布时脱颖而出,不仅在于其技术上的创新,更在于它真正解决了用户的实际需求,提供了更加自然、高效和人性化的交互体验。这种以用户为中心的设计理念,正是DeepSeek爆火的核心原因之一。


02

从Pre-training Fine-Tuning到Prompt Fine-Tuning

分析完了DeepSeek模型爆火的主要原因,接下来我们从技术角度探讨一下大模型的微调技术的发展。在大模型发展的早期阶段,预训练-微调(pre-training fine-tuning)是主流的微调方法。这种方法通常分为两个阶段:首先,模型在大规模通用数据(如互联网文本)上进行预训练,学习通用的语言表示;然后,针对特定任务(如文本分类、机器翻译等),在较小的任务专用数据集上进行微调。虽然这种方法在许多任务上表现优异,但它存在明显的局限性。

首先,每个任务都需要单独的微调过程,这意味着每次面对新任务时,都需要重新训练模型,导致计算资源消耗大、成本高。对于企业或研究机构来说,这种高成本的方式显然不够高效。其次,微调过程需要大量的任务专用数据,这在数据稀缺的领域(如医疗、法律等)尤为困难。例如,在医疗领域,获取高质量的标注数据不仅成本高昂,还涉及隐私和伦理问题。此外,模型在微调后往往对预训练阶段学到的通用知识产生“灾难性遗忘”,即模型在适应新任务时,可能会丢失之前在预训练阶段学到的通用语言理解能力,从而限制了其在新任务上的泛化能力。

随着研究的深入,提示词微调(prompt fine-tuning)逐渐成为了一种更高效的替代方案,解决了传统预训练-微调方法中的诸多局限性。这种方法的核心思想是通过设计提示词(prompt)来引导模型生成所需的输出,而不是对模型进行全面微调。例如,在文本分类任务中,可以通过设计如“这篇文章的主题是__”这样的提示词,让模型直接生成类别标签,而不需要对整个模型进行重新训练。这种方式不仅简化了任务处理的流程,还显著降低了技术使用的门槛。

提示词微调的优势在于其灵活性和高效性。首先,它减少了对任务专用数据的依赖,特别适合少样本甚至零样本学习的场景。在许多实际应用中,获取大量标注数据既昂贵又耗时,而提示词微调通过巧妙地设计提示词,能够利用模型在预训练阶段学到的通用知识,即使只有少量数据,也能取得不错的效果。其次,由于提示词微调不需要对模型参数进行大规模调整,计算成本显著降低。这对于资源有限的中小企业或个人开发者来说,无疑是一个巨大的优势。此外,提示词微调更好地保留了模型在预训练阶段学到的通用知识,避免了“灾难性遗忘”问题,从而提升了模型在多任务上的表现。

从技术发展的角度来看,提示词微调(prompt fine-tuning)的兴起得益于大模型(如BERT、GPT-3、ChatGPT等)在预训练阶段的强大能力,以及研究者对提示词设计的深入探索。这些大模型通过在海量数据上进行预训练,掌握了丰富的语言表示能力和通用知识,为提示词微调提供了坚实的基础。提示词微调的核心在于通过设计合适的提示词,引导模型生成所需的输出,而无需对模型进行全面微调。这种方法的成功离不开研究者对提示词设计的不断创新,例如如何设计更有效的提示词模板、如何将任务需求转化为模型能够理解的提示词形式等。

随着技术的进步,自动化提示词生成和动态提示词优化等技术进一步提升了提示词微调的效果。自动化提示词生成通过算法自动设计提示词,减少了人工设计的成本,同时提高了提示词的精准度和适应性。动态提示词优化则根据任务的具体需求,实时调整提示词的内容和形式,使模型能够更精准地理解任务需求并生成符合预期的输出。这些技术的引入,不仅提高了提示词微调的效率,还使其在更复杂的任务中表现出色。

此外,元学习(meta-learning)和多任务学习(multi-task learning)的结合,进一步增强了提示词微调的泛化能力。元学习使模型能够通过少量示例快速学习新任务,而多任务学习则让模型在不同任务之间共享知识,从而提升整体性能。例如,一个经过多任务训练的模型,可以在面对新任务时,利用之前学到的通用知识,快速适应并生成高质量的输出。这种能力使得提示词微调在少样本甚至零样本学习场景中表现出色,极大地扩展了其应用范围。

提示词微调的兴起是大模型技术发展和研究者创新探索的共同结果。自动化提示词生成、动态提示词优化以及元学习与多任务学习的结合,使得提示词微调在效果和效率上都有了显著提升。这些技术进步不仅推动了大模型在实际应用中的普及,还为人工智能的未来发展提供了新的方向。随着技术的不断演进,提示词微调有望在更多领域发挥其潜力,为各行各业的智能化转型提供强有力的支持。

提示词微调具有诸多优势,但是随着应用需求的增加和使用群体的扩展,也逐渐显露出了一些存在的问题。例如,提示词的设计需要一定的技巧和经验,不同任务可能需要不同的提示词策略,这为普通人使用大模型工具增加了不小的门槛和难度。为了解决这一问题,研究者们开始探索自动化提示词生成和动态提示词优化等技术,进一步提升了提示词微调的效果和适用性。同时,结合元学习和多任务学习的方法,使得模型能够通过少量示例快速适应新任务,展现了更强的泛化能力。


03

推理微调(Inference Fine-Tuning)的兴起

当下,大模型微调技术已经逐渐发展到了推理微调(Inference Fine-Tuning)阶段的初期,以OpenAI的o1模型和DeepSeek为代表的推理型大语言模型正在引领这一趋势。随着大模型在复杂推理任务上的需求不断增加,单纯依赖预训练和提示微调已经显得不足。预训练和提示微调虽然在文本生成、分类等任务上表现出色,但在需要深度逻辑推理、数学证明或复杂问题分解的场景中,其局限性逐渐显现。例如,在解决数学问题、进行科学推理或处理多步骤逻辑任务时,传统的微调方法往往难以满足需求。

未来的微调方向可能会更加专注于提升模型的推理能力,尤其是减少了人类干预的纯强化学习推理微调技术(Pure Reinforcement Learning Fine-Tuning for Inference),使其不仅能够生成流畅的文本,还能在逻辑推理、数学证明、复杂问题分解等任务中表现出色。推理微调的核心目标是通过改进模型架构、优化训练方法以及引入高质量的推理数据集,使模型具备更强的逻辑思维和问题解决能力。例如,模型需要能够理解复杂的逻辑关系、进行多步推理、甚至模拟人类的思维过程。这种能力的提升将极大地扩展大模型的应用范围,使其在科学研究、工程设计、法律分析等需要高逻辑性的领域中发挥更大作用。

推理微调(Inference Fine-Tuning)的核心方向包括多个方面,这些方向共同推动了大模型在复杂推理任务中的能力提升。首先,设计更适合复杂推理任务的模型架构是关键。传统的语言模型虽然在文本生成和简单任务上表现出色,但在处理抽象和逻辑性强的任务时往往力不从心。为此,研究者们正在探索引入符号推理模块或增强逻辑推理能力的方法。例如,通过将符号逻辑与神经网络结合,模型可以更好地处理数学证明、逻辑推理等需要高抽象思维的任务。这种架构的改进不仅提升了模型的推理能力,还为其在科学、工程等领域的应用奠定了基础。

其次,构建高质量的推理数据集至关重要。推理能力的提升离不开高质量的训练数据,这些数据集需要涵盖数学证明、逻辑推理、科学问题求解等多种任务。例如,包含复杂数学问题的数据集可以帮助模型学习如何逐步推导答案,而逻辑推理数据集则可以训练模型理解因果关系和逻辑链条。这些数据集的构建不仅需要大量的领域知识,还需要精细的标注和验证,以确保模型能够从中学习到有效的推理模式。

此外,通过多步推理任务训练模型也是提升推理能力的重要手段。复杂问题往往需要分解为多个子问题,并逐步解决。通过设计多步推理任务,模型可以学习如何将复杂问题拆解,并按照逻辑顺序逐步推导出答案。这种方法不仅提升了模型的推理能力,还增强了其解决实际问题的实用性。

在预训练阶段加入推理任务,如逻辑推理、数学问题求解等,可以进一步提升模型的推理能力。通过在预训练中融入这些任务,模型能够在早期阶段就掌握基本的推理技能,从而在后续的微调和应用中表现得更加出色。

同时,结合生成模型和推理模型的设计也是未来发展的一个重要方向。传统的生成模型虽然能够生成流畅的文本,但在逻辑推理和验证方面往往表现不足。通过将生成模型与推理模型结合,可以使模型不仅能生成文本,还能进行逻辑推理和验证。例如,在生成一段科学解释时,模型可以同时验证其逻辑的正确性,从而确保输出的准确性和可靠性。

最后,提升模型推理过程的可解释性也是推理微调需要重点解决的问题。在许多应用场景中,用户不仅需要模型给出答案,还需要了解其推理过程。通过设计可解释的推理步骤,模型能够展示其思考过程,便于人类理解和验证。这种可解释性不仅增强了用户对模型的信任,还为模型的进一步优化提供了依据。

推理微调的核心方向涵盖了模型架构设计、数据集构建、多步推理训练、预训练任务融合、生成与推理结合以及可解释性提升等多个方面。这些方向的共同推进,将进一步提升大模型在复杂推理任务中的表现,为其在更多领域的应用提供强有力的支持。随着技术的不断发展,推理微调有望成为人工智能领域的一个重要突破点,推动大模型向更高层次的智能化迈进。

推理微调(Inference Fine-Tuning)展现出巨大的潜力,但其发展预计会面临一些挑战。首先,高质量推理数据的稀缺是一个主要问题。构建大规模、多样化的推理数据集需要大量的人力和资源投入,成本较高。例如,数学证明、逻辑推理和科学问题求解等领域的数据集不仅需要专业的领域知识,还需要精细的标注和验证,以确保数据的准确性和多样性。这对于许多研究团队和企业来说,是一个巨大的负担。其次,复杂推理任务通常需要更多的计算资源,训练和推理的成本也随之增加。复杂的推理模型往往需要更深的网络结构、更长的训练时间以及更高的硬件配置。

此外,推理模型的设计复杂度较高,需要在推理能力和生成能力之间找到平衡点。推理型模型不仅需要具备强大的逻辑推理能力,还需要保持生成文本的流畅性和自然性。这种双重需求对研究者的技术能力提出了更高的要求,如何在两者之间实现最优的权衡,是一个需要深入研究的课题。同时,推理模型的可解释性也是一个重要的挑战。为了让用户能够理解和信任模型的推理过程,研究者需要设计能够清晰展示推理步骤的机制,这进一步增加了模型设计的复杂性。

随着技术的不断进步,推理微调有望成为未来研究的重点方向。通过持续优化模型架构、构建高质量数据集、降低计算成本以及提升模型的可解释性,推理微调将进一步推动大模型在复杂任务中的表现。例如,在科学领域,推理型模型可以辅助研究人员进行复杂的数学推导和实验设计;在工程领域,它可以优化系统设计和故障诊断;在医疗领域,它可以辅助医生进行疾病诊断和治疗方案制定。这些应用不仅能够提升行业效率,还能为人工智能技术的普及提供更多可能性。

未来,推理型大语言模型可能会成为解决复杂问题的核心工具,推动人工智能技术向更高层次发展。随着推理能力的不断提升,大模型将不仅限于生成文本,还能够进行深度的逻辑推理和问题解决,成为人类在科学研究、工程设计和决策支持中的得力助手。尽管前路充满挑战,但推理微调的潜力无疑是巨大的,它有望为人工智能领域带来新的突破,推动技术向更智能、更高效的方向迈进。


官方服务号,专业的人工智能工程师考证平台,包括工信部教考中心的人工智能算法工程师,人社部的人工智能训练师,中国人工智能学会的计算机视觉工程师、自然语言处理工程师的课程培训,以及证书报名和考试服务。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/22834.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Dify使用教程(创建应用)

Dify的安装部署我已经写过了,简单的模型配置我也在前面进行了讲解,今天我们主要来讲讲如何使用Dify。 一、创建应用 我们可以通过三种方式在Dify的工作室内创建应用 01 基于应用模板创建(新手推荐)02 创建一个空白应用03 通过D…

system verilog的流操作符

流操作符&#xff0c;有分为操作对象是一整个数组和单独的数据两种&#xff0c;例如bit [7:0] a[4]和bit [31:0] b&#xff0c;前者操作对象是数组&#xff0c;后者是单独一个较大位宽的数。 流操作符有<<和>>&#xff0c;代表从右向左打包和从左向右打包。 打包的…

项目实战--网页五子棋(匹配模块)(4)

上期我们完成了游戏大厅的前端部分内容&#xff0c;今天我们实现后端部分内容 1. 维护在线用户 在用户登录成功后&#xff0c;我们可以维护好用户的websocket会话&#xff0c;把用户表示为在线状态&#xff0c;方便获取到用户的websocket会话 package org.ting.j20250110_g…

hot100_108. 将有序数组转换为二叉搜索树

hot100_108. 将有序数组转换为二叉搜索树 思路 给你一个整数数组 nums &#xff0c;其中元素已经按 升序 排列&#xff0c;请你将其转换为一棵 平衡 二叉搜索树。 示例 1&#xff1a; 输入&#xff1a;nums [-10,-3,0,5,9] 输出&#xff1a;[0,-3,9,-10,null,5] 解释&#…

Win11更新系统c盘爆满处理

1.打开磁盘管理 2.右击c盘选择属性&#xff0c;进行磁盘管理&#xff0c;选择详细信息。 3.选择以前安装的文件删除即可释放c盘空间。

深入理解 JSP 与 Servlet:原理、交互及实战应用

一、引言 在 Java Web 开发领域,JSP(JavaServer Pages)和 Servlet 是两个至关重要的技术,它们共同构成了动态网页开发的基础。Servlet 作为服务器端的 Java 程序,负责处理客户端请求并生成响应;而 JSP 则是一种简化的 Servlet 开发方式,允许开发者在 HTML 页面中嵌入 J…

[通俗易懂C++]:指针和const

之前的文章有说过,使用指针我们可以改变指针指向的内容(通过给指针赋一个新的地址)或者改变被保存地址的值(通过给解引用指针赋一个新值): int main() {int x { 5 }; // 创建一个整数变量 x&#xff0c;初始值为 5int* ptr { &x }; // 创建一个指针 ptr&#xff0c;指向 …

DL/CV领域常见指标术语(FLOPS/mIoU/混淆矩阵/F1-measure)------一篇入门

1. FLOPS、FLOPs和GFLOPs FLOPS: floating-point operations per second&#xff0c;每秒浮点运算次数&#xff0c;用来衡量硬件性能。 FLOPs&#xff1a;floating point of operations&#xff0c;是浮点运算次数&#xff0c;用来衡量算法、模型的复杂度。 GFLOPS&#xff…

被裁20240927 --- WSL-Ubuntu20.04安装cuda、cuDNN、tensorRT

cuda、cuDNN、tensorRT的使用场景 1. CUDA&#xff08;Compute Unified Device Architecture&#xff09; 作用&#xff1a; GPU 通用计算&#xff1a;CUDA 是 NVIDIA 的并行计算平台和编程模型&#xff0c;允许开发者直接利用 GPU 的并行计算能力&#xff0c;加速通用计算任…

DeepSeek vs ChatGPT:AI对决中的赢家是……人类吗?

DeepSeek vs ChatGPT&#xff1a;AI对决中的赢家是……人类吗&#xff1f; 文章目录 DeepSeek vs ChatGPT&#xff1a;AI对决中的赢家是……人类吗&#xff1f;一、引言1. 背景2. 问题 二、DeepSeek vs ChatGPT&#xff1a;谁更胜一筹&#xff1f;2.1 语言生成能力评测对比场景…

旧手机热点无法提供ipv6解决方法(emui 8 热点提供ipv6)

旧手机热点无法提供ipv6解决方法 手机&#xff1a;荣耀8x 系统版本: EMUI 8 网络&#xff1a;移动流量卡 解决方案 设置-》无线和网络-》移动网络-》接入点名称(APN)-》cmiot 修改 APN协议: IPv4/IPv6 修改 APN漫游协议: IPv4/IPv6

I2C学习笔记-软件模拟I2C

I2C学习笔记&#xff08;软件模拟&#xff09; 介绍GPIO的配置信号的展示起始信号 与 停止信号应答信号&#xff08;非应答信号&#xff09;检测应答信号发送一个字节数据接收一个字节数据 硬件配置实物测试 介绍 I2C的信号大概有 起始信号、应答信号、停止信号、写数据、读数…

VUE四:Vue-cli

什么是Vue-cli vue-cli是官方提供的一个脚手架,用于快速生成一个vue的项目模板; 预先定义好的目录结构及基础代码&#xff0c;就好比咱们在创建 Maven项目时可以选择创建一个骨架项目&#xff0c;这个骨架项目就是脚手架,我们的开发更加的快速; 什么是web pack 本质上&#…

基于 openEuler 构建 LVS-DR 群集

目录 对比 LVS 负载均衡群集的 NAT 模式和 DR 模式&#xff0c;比较其各自的优势 NAT 模式&#xff08;网络地址转换模式&#xff09; DR 模式&#xff08;直接路由模式&#xff09; 基于 openEuler 构建 LVS-DR 群集 实验准备环境 配置web服务器 web1 web2 首先下载ngi…

传统的自动化行业的触摸屏和上位机,PLC是否会被取代?

传统的自动化行业的触摸屏和上位机是否会被取代&#xff1f; 在工业自动化领域&#xff0c;触摸屏和上位机长期扮演着核心角色&#xff0c;尤其在污水处理、化工生产等场景中&#xff0c;它们通过实时数据采集、逻辑控制、报警联动等功能&#xff0c;保障了生产设备的稳定运行…

Spring Boot 集成MyBatis-Plus

文章目录 一、背景说明二、集成过程 2.1 引入 maven 依赖2.2 增加属性配置2.3 自动配置类 三、验证集成 3.1 控制器3.2 服务类3.3 Mapper接口类3.4 实体类3.4 不要忘记XML文件3.5 发起请求 四、技巧拓展 4.1 如何打印sql语句&#xff1f;4.2 如何对参数增加非空验证&#xff1f…

力扣hot100——排序链表(常见方法,归并排序)

解题思路&#xff1a; 分解&#xff08;Divide&#xff09;&#xff1a;将待排序的列表递归地分成两半&#xff0c;直到每个子列表只包含一个元素&#xff08;此时每个子列表都是有序的&#xff09;。解决&#xff08;Conquer&#xff09;&#xff1a;递归地对每个子列表进行排…

技术解析 | 适用于TeamCity的Unreal Engine支持插件,提升游戏构建效率

龙智是JetBrains授权合作伙伴、Perforce授权合作伙伴&#xff0c;为您提供TeamCity、Perforce Helix Core等热门的游戏开发工具及一站式服务 TeamCity 是游戏开发的热门选择&#xff0c;大家选择它的原因包括支持 Perforce、可以进行本地安装&#xff0c;并提供了多种配置选项。…

Three.js 快速入门教程【二】透视投影相机

系列文章目录 系列文章目录 Three.js 快速入门教程【一】开启你的 3D Web 开发之旅 Three.js 快速入门教程【二】透视投影相机 Three.js 快速入门教程【三】渲染器 Three.js 快速入门教程【四】三维坐标系 Three.js 快速入门教程【五】动画渲染循环 Three.js 快速入门教程【六…

无人机仿真、感知、规划

文章目录 1.仿真环境1.1 博客教学1.2 教学视频1基础无人机仿真教学视频介绍2 XTDrone无人机仿真与控制技术全面教程3 ROS机器人集群仿真与实践教程 1.3 开源项目及插件1 ROS2-Gazebo Drone Simulation Plugin2 RotorS_UAV_Gazebo_Simulator3 自主无人机与Aruco导航教程4 基于 A…