Knowledge Editing for Large Language Models: A Survey

目录

  • Introduction
  • Problem Formulation
  • 评估指标
  • Methods
  • 数据集
  • 应用
  • 讨论
    • 挑战
    • 未来方向

大型语言模型(LLMS)最近由于其出色的理解,分析和生成文本的能力而根据其广泛的知识和推理能力来改变了学术和工业景观。然而,LLM的一个主要缺点是由于其前所未有的参数量,其预训练的大量计算成本。当经常需要将新知识引入预训练的模型中时,这种缺点会加剧。因此,必须开发有效的技术来 更新预训练的LLM。传统方法通过直接微调编码预训练的LLM中的新知识。但是,天真的重新训练LLM可以是计算密集型的,并冒着与模型更新无关的有价值的预训练知识退化的风险。最近,基于知识的模型编辑(KME),也称为知识编辑(KE),吸引了越来越多的关注,该关注旨在精确地修改LLM以纳入特定知识,而不会对其他无关的知识产生负面影响。在这项调查中,我们旨在为KME领域的最新进展提供全面而深入的概述。我们首先引入了KME的一般配方,以涵盖不同的KME策略。之后,我们根据如何将新知识引入预培训的LLM中,并研究现有的KME策略,同时分析每个类别的方法的关键见解,优势和局限性,从而提供KME技术的创新分类法。此外,相应地介绍了KME的代表性指标,数据集和应用程序。最后,我们提供了有关KME的实用性和剩余挑战的深入分析,并提出了有前途的研究方向,以进一步发展该领域。

Introduction

最近,大型语言模型(LLM)已成为一个激烈的话题,彻底改变了学术界和工业[11,97,129,149]。凭借从大型语料库进行预训练中获得的实质性事实知识和推理能力,LLMS表现出对文本信息的前所未有的理解,这些信息能够分析和生成类似于人类专家的文本[75,77,77,121,123,152] 。然而,由于大量参数,LLM的主要缺点是训练过程的极高计算开销[54,58,155]。世界的持续发展会加剧这一点,在这个世界上,更新预训练的LLMS以纠正过时的信息合并新知识以保持其相关性的要求不断出现[76,81,116,120]。例如,如图1所示,一个过时的LLM无法准确描述莱昂内尔·梅西(Lionel Messi)的最新成就,这需要明确注入新知识才能产生正确的答案。
在这里插入图片描述

一个可行的直接策略以更新预训练的LLMS是通过简单的填充[21,31,126,141],直接优化预训练的LLMS的参数以从新数据中编码新知识[6,88,99,149 ]。例如,提出了各种基于instruction调查的方法,以监督的学习方式对新收集的语料库进行预训练的LLM [89,100,137,139]。尽管这种微调技术被广泛使用并能够向LLM注入新知识,但它们以下缺点而闻名:(1)即使提出了一些参数有效的策略,以提高效率[79,138,147],Fine Fine [79,138,147] - 调整LLM可能仍需要密集的计算资源[86,91,150]。 (2)填充模型可以过度拟合新数据,尤其是当用于微调的数据集规模较小时[25,87,90]。 (3)更重要的是,微调的LLMS改变了没有约束的预训练的权重,这可能会失去LLM中有价值的现有知识[29,59,84]。这些挑战限制了用新知识更新LLM的微调技术的实用性。

为了解决用于更新LLM的简单微调的缺点,更多的关注是基于知识的模型编辑(KME)。通常,KME旨在精确修改预训练的LLM的行为,以更新特定知识,而不会对其他与更新无关的其他预训练知识进行负面影响[104、135、145]。在KME中,通常将LLMS中特定知识的更新更新为编辑,例如纠正“谁是美国总统?”的答案。从“特朗普”到“拜登”。关于特定的编辑,KME策略通常通过将辅助网络(或一组参数)引入预训练的模型[47,72,151]或更新(部分)参数来存储新知识[47,72,151]来修改模型输出。 22、45、46、74]。通过这些策略,KME技术可以在记忆中存储新知识或将其定位在用于更新的模型参数中,从而精确地将知识注入模型中。此外,某些方法还引入了明确的损失以包含更新过程,以便编辑的模型在未修改的知识上保持一致的行为。有了这些优势,KME技术可以提供一种有效的方法,可以在不明确的模型重新训练的情况下不断地使用新颖知识更新LLM。

尽管KME与微调策略具有某些相似之处,但它在更新LLMS方面具有独特的优势,这值得进行更深入的调查。特别是,KME和模型微调都试图通过注入新知识来更新预训练的LLM。但是,除了这个共同的目标外,KME还专注于两个关键属性,这些属性无法通过微调轻松解决。 (1)局部性要求编辑的模型不会影响其他与不同语义的无关输入的输出。例如,当更新有关美国总统的编辑时,编辑的模型不应改变其对英国总理的了解。 KME方法的实用性在很大程度上取决于其维护输入无关的输出的能力,这是KME和微调之间的主要区别[105]。 (2)普遍性表示编辑的模型是否可以推广到有关编辑知识的更广泛的相关输入。具体而言,它表明该模型在共享语义相似性的输入上呈现一致行为的能力。例如,当对总统进行编辑时,总统配偶查询的答案也应相应地改变。实际上,对于KME方法,确保编辑模型可以很好地适应这些相关输入文本非常重要。总而言之,由于这两个独特的目标,KME仍然是一项具有挑战性的任务,需要具体的策略来达到令人满意的有效性。

这项调查与现有调查之间的差异。已经进行了几项调查,以检查(大)语言模型的各个方面[13,34,63,65,127,149]。然而,仍然缺乏彻底的调查,这些调查全面涵盖了现有文献和LLM编辑领域的持续进展。例如,最近的作品[89,139]讨论了将预训练的LLM中的新知识与更多数据样本融入新知识的微调策略。但是,KME的独特性,即局部性和普遍性,并未得到充分讨论,这将在本调查中进行彻底分析。另外两项调查[35,57]回顾了知识增强的语言模型。但是,他们的主要重点是利用外部知识来增强预训练的LLM的性能,而无需基于特定知识来解决编辑任务。据我们所知,与我们的调查最相关的论文是[145],它简要概述了KME,并简单地讨论了KME方法的优势及其挑战。然而,调查还缺乏对KME的更多细节,例如分类,数据集和应用程序的更多细节。最近的另一项工作[135]提出了一个KME的框架,该框架统一了几种代表性的方法。这项工作重点是实施KME技术,更少强调不同策略的技术细节。最近,一项工作[104]讨论了KME方法对编辑模型的忠诚的局限性,虽然相对较短,并且缺乏对所有现有方法的更全面的介绍。考虑到KME技术的快速发展,我们认为必须审查所有代表性KME方法的详细信息,总结共同点的同时讨论每种方法的独特性,并讨论KME领域中的开放挑战和前瞻性方向,这将促进该领域该领域的进一步发展。

这项调查的贡献:这项调查提供了与预训练的LLM相关的技术,挑战和机遇的全面,深入的分析。我们首先提供了KME任务的概述以及创新的配方。特别是,我们将一般的KME任务作为一个受约束的优化问题制定,同时结合了准确性,局部性和一般性的目标。然后,我们将现有的KME策略分为三个主要类别,即外部记忆,全局最佳和局部修改。更重要的是,我们证明,每个类别中的方法可以作为专门的约束优化问题进行表述,其中理论上根据一般公式对特征进行了汇总。此外,我们还提供了对每个类别方法的有效性和可行性的宝贵见解,这可以帮助从业者选择针对特定任务量身定制的最合适的KME方法。我们对KME方法的优势和劣势的分析也是KME研究界持续进步的催化剂。在具体的情况下,我们的主要贡献可以概括为三个倍,如下所示:

  • 新颖的分类。我们引入了一个全面的结构化分类框架,以系统地总结了LLM编辑的现有作品。具体而言,基于如何将新知识引入预训练的LLM中,我们的分类包括三个不同的类别:外部记忆,全局优化和本地修改,在此调查中对其共同点和差异进行了详尽的讨论。
  • 深入分析。我们将LLM编辑的任务作为一个受约束的优化问题,其中每个类别的方法都可以视为具有精制约束的特殊情况。此外,我们强调了每个类别的主要见解,优势和局限性。在这种情况下,我们深入研究了每个类别的代表性方法,并系统地分析了它们的互连。
  • 未来发展方向。我们分析了有关各种数据集和应用程序的现有KME技术的实用性。我们还全面讨论了现有的KME技术的挑战,并为未来探索提出了有希望的研究指示。

本文的其余部分安排如下。第2节介绍了LLM编辑的背景知识。第3节提供了KME任务的一般公式,可以适合各种应用程序方案。第4节提供了KME策略的评估指标的全面摘要,这对于对各种方法的公平比较至关重要。在深入研究特定方法之前,我们将现有方法的全面分类为第5.1节中的三个类别,在其中彻底讨论了它们的关系和差异。然后,我们详细介绍了三个类别的方法,其中总结了每个类别的优点和局限性。第6节介绍了普遍使用的公共数据集。第7节提供了可以从KME技术中受益的各种现实任务的详尽介绍。第8节讨论了现有技术尚未解决的KME的潜在挑战。本节还提供了一些潜在的方向,可以激发未来的研究。最后,我们在第9节中得出了这项调查。

Problem Formulation

编辑目标:在这项调查中,我们代表编码或需要注入预训练的LLM的知识作为知识Triple T =(S,R,O),其中S是主题(例如,美国总统),R是关系(例如,IS),O是对象(例如,拜登)。从知识三重的角度来看,llms的kme目的是修改模型的预训练权重中的原始知识t =(s,r,o)中的目标知识t ∗ =(s, r,o ∗),其中o ∗是与o不同的目标对象。通过这种方式,我们可以将编辑定义为元组e =(t,t ∗)=(s,r,o→O ∗),该编辑表示已过时的旧知识t更新到新知识t ∗中。
在这里插入图片描述
在这里插入图片描述
从上面的定义来看,我们可以总结有关KME目标的两个关键观点:(1)一般性,它要求可以在目标输出空间y ∗ e中获得正确的答案,如果给定输入空间中提示Xe,可以将目标知识三重t ∗∈E更新到预训练的模型中; (2)局部性,需要模型输出在无关输入(即X \ Xe)中的一致性,在编辑后可以最大程度地保留有价值的预训练的知识。在这里,我们注意到,局部性对于编辑LLM尤其重要,因为需要更新的知识通常只占据预先训练模型所包含的所有知识的一小部分。换句话说,关于大多数输入提示的编辑模型的输出应与编辑之前的输出保持一致。

评估指标

  • 准确度在这里插入图片描述

  • 局部性
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  • 通用性
    在这里插入图片描述

  • 保持性
    在这里插入图片描述

  • 可伸缩性
    在这里插入图片描述

Methods

在这里插入图片描述
在这里插入图片描述
面对旧信息的快速贬值和新知识的出现,已经提出了各种KME方法来更新预训练的LLM,以保持其更新和相关性。 KME确保可以有效地将新知识纳入预训练的LLM中,而不会对与编辑无关的预培训知识产生负面影响。在此调查中,我们将现有的KME方法分为三个主要类,如下所示:

  • 基于外部记忆的方法利用外部记忆来存储新知识以编辑而无需修改预训练的权重,而预训练的知识可以完全可以充分保存在LLM重量中。通过使用外部参数存储新知识,基于内存的策略可以通过良好的可扩展性来精确地表示新知识,因为内存很容易扩展以合并新知识。
  • 基于全局优化的方法旨在通过在新知识的指导下进行优化,将新知识纳入预训练的LLMS,在此引入量身定制的策略以限制其他预训练的知识的影响。然而,由于要优化大量参数,这些方法在应用于LLMS上时可能会缺乏编辑效率
  • 基于局部修改的方法旨在找到LLMS中特定知识的相关参数,并相应地进行更新以整合与编辑相关的新知识。局部修改的主要优点是可能仅更新一小部分模型参数,从而与基于记忆的方法和计算效率相比,与全局优化相比,提供了相当大的内存效率。

上述分类是根据(例如外部参数或内部权重)以及在编辑过程中将新信息引入LLM中的(例如,通过优化或直接合并)实现的。具体而言,每个类别的方法在SEC中引入的四个关键评估指标上都表现出不同的优势和劣势。 例如,在计算资源有限的情况下需要大量编辑的情况下,外部记忆占上风,因为内存的大小是可以控制的,以适应不同的要求。另一方面,当从业者更多地关注编辑知识的一般性时,全球优化是有利的,因为优化可以促进相关知识的学习[2]。
在这里插入图片描述

数据集

最近,已经建立了多个数据集,以促进KME方法的评估。在本节中,我们总结了表3中常用的数据集,以使未来的KME研究受益。具体来说,这些数据集可以分为两组:文本输出数据集(即生成任务)和分类输出数据集(即分类任务)。这些数据集是从各种来源获得的,包括知识图,Wikipedia页面,人群响应等,这些响应是由研究人员改编以适应KME设置的。
在这里插入图片描述
在这里插入图片描述

应用

应用程序KME可以使多个下游应用程序受益,并能够精确有效地注入知识为预训练的LLM。在下文中,我们在现实的情况下介绍了KME技术的几个关键应用,在表4中提供了直观的示例。

  • 问答
  • 事实检查
  • 自然语言生成

讨论

挑战

  1. **局部性和通用性之间的权衡。**在KME中,至关重要的是要平衡两个目标,局部性和一般性(如第4节所述),以便可以实现更高的编辑成功率,而对与编辑无关的其他知识的负面影响最小。在编辑语言模型时,可能会在这两个理想的属性之间出现潜在的权衡。如[145]中所示,局部修改方法,例如Memit [87]和Rome [86]通常保留更高水平的位置,因为它们定位了目标知识的精确位置以进行该版本,这并不会很大程度上影响无关的无关权重。另外,T-Patcher [59]指出,增加内存的大小会增加位置,同时降低一般性。这些观察结果强调了当地和一般性之间的复杂平衡。但是,解决权衡问题并在KME方法的这两种理想特性之间取得平衡仍然是一项挑战。
  2. **理论分析。**尽管许多当前的KME研究着重于开发有效的方法来增强各种理想特性的编辑性能,但实际应用与相对较少发现的理论分析之间存在明显的差距。最近,在[125]中,作者为识别有害培训示例的理由提供了理论支持,并通过从贝叶斯观点中删除信息来编辑模型。 Leace [9]引入了一个分析框架,该框架为从语言模型中的各个层中删除目标概念信息的任务提供了理论观点。通常,理论分析是多方面的。首先,理论分析提供了对KME潜在的机制的更深入的理解,从而允许更有原则的编辑方法。其次,强大的理论基础为未来的研究奠定了坚实的基础,鼓励在KME领域进行更严格和系统的探索。但是,据我们所知,关于涉及新知识的KME问题,仍然没有任何全面的理论分析。我们希望未来的研究能够丰富理论话语,这些话语可以深刻地了解KME方法的实质性基础。
  3. 大规模编辑。阻碍KME实际应用的另一种关键属性是可扩展性 - 编辑策略同时有效执行大量编辑的能力[90]。例如,预计会话系统[150]将不断更新,以结合大量的全球事件及其源自它们的信息。但是,随着应用编辑的数量的增加,语言模型的连贯性受到严重危害,因为多次编辑可能与模型中更广泛存在的知识相矛盾[135]。这可能导致当地和通用指标的编辑性能下降[91]。尽管外部记忆方法可以通过更大的其他参数记忆来减轻此类问题,但如果需要数千个编辑,它们仍然很脆弱[86]。此外,仅通过顺序应用它们来对多编辑环境调整单编辑技术,才被证明被证明是次优的[87]。因此,连贯性的独特而复杂的挑战使得在大规模编辑一项艰巨的任务。

未来方向

尽管在开发KME策略方面取得了有效,有效地将新知识更新为LLM的成就,但KME研究仍处于新兴阶段。可以提出几个有希望的指示,以进一步发展这一领域。因此,我们确定了未来值得探索的五个鼓舞人心和重要的开放问题:

  • 无优化的编辑。最近,及时的工程已成为普遍的解决方案,用于以人为优先的方式修改预训练的LLM的行为,而无需参数更新[30]。例如,内在学习以纯文本的形式提供了任务描述和/或演示,以促进模型性能[11],这使其成为语言模型的可能更高效,更实用的策略。我们注意到,IKE [150]提出了一个新颖的框架,该框架依赖于KME的演示上下文而无需更新参数,该框架明确地格式化了可以指导语言模型来复制,更新和保留不同提示的预测的演示。但是,这种策略很难扩展,并且通常没有令人满意的保留率。因此,在开发无优化的KME方法的挑战性任务的同时,这仍然是至关重要的。
  • 编辑目标的自动发现。当前的KME方法主要依靠人类专业知识来识别并将理想的知识纳入预训练的LLM中。这种方法本质上是劳动力密集的,可以产生巨大的成本,尤其是考虑到将大量且快速扩展的新信息集成到语言模型中。一个有希望的未来方向在于编辑的自动化,该自动化旨在识别,评估和优先考虑需要从网站和社交媒体等原始资源中集成的新知识。通过这种策略,可以简化KME的应用,从而使其在现实世界中更实用和适应性。一个简单的解决方案将是爬新知识并将其转变为知识库,为每个知识查询LLM,并编辑错误的答案。但是,这种策略仍然缺乏效率。因此,在不努力的情况下发现从各种资源中发现编辑知识仍然是一项至关重要的任务。
  • 持续编辑。 LLM编辑的当前方法主要考虑一步离线编辑[5,25];但是,这种方法与现实世界应用不符,在这些应用程序中,模型可能会不断遇到要注入的新知识。例如,在线质疑(QA)模型可能会不断遇到最终用户的不正确答案的报告,其中需要在运行中进行编辑[59]。因此,最佳的KME技术应能够即时,不断地纠正新兴问题。我们注意到,预先训练的LLM的持续编辑提出了一个独特的挑战:防止编辑的模型忘记或与以前的编辑相矛盾。尽管存在固有的复杂性,但实践中对持续编辑的持续需求强调了解决这一挑战的重要性。
  • 鲁棒的编辑。 KME发展的一个重要方向在于增强其鲁棒性。在这个错误信息迅速传播的时代,紧急编辑模型不仅保留其准确性,而且可以抵制对抗性攻击和错误信息[38]。在这里,我们应该注意,鲁棒性的概念不仅可以保持事实准确性。它涉及强化该模型,以防止潜在的对抗性外部扰动[101]。例如,如果将KME恶意应用于语言模型中注入有害知识,则可以轻松地将编辑的模型转换为错误信息的工具[126]。因此,为防止此类案件,对于KME技术来说,开发能够识别和抵消此类不良投入的能力至关重要,从而增强了他们针对对抗性行动的韧性。在实践中,随着趋势倾向于开源大型语言模型,保护可能会使这些模型有害的潜在操作保护变得越来越重要。
  • 可编辑的公平性。随着大型语言模型(LLM)在支持决策中的广泛应用,对公平性的强调已经显着增长[134],这要求LLMS公平对待具有不同背景的人[1]。但是,在大型数据集上训练的LLM不可避免地会在此预训练阶段融合某些偏见[28]。幸运的是,KME技术的精度和效率为减轻此类偏见并促进预训练的LLM的公平性提供了有希望的解决方案。例如,在旨在将传记句子与职业分类的模型中[24],KME可用于注入有关特定职业的细微知识,从而指导该模型对与该职业相关的个人进行更公平的了解[52]。但是,这仍然是一个复杂的挑战,因为公平通常需要考虑不同的个人群体而不是特定的人。这种更广泛的重点使通过KME的知识注入成为非平凡的任务。尽管遇到了这些困难,但语言模型中公平性的增强至关重要,KME技术为实现这一目标提供了有希望的途径。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/310239.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何在横向渗透攻击中寻到一线生机

横向渗透,作为计算机网络中的一种攻击技术,展现出了攻击者如何巧妙地利用同一级别系统间的漏洞和弱点,扩大其网络访问权限。与纵向渗透不同,横向渗透不关注权限的垂直提升,而是更侧重于在同一层级内扩展影响力。 横向…

Excel文件解析

在此模块的学习中,我们需要一个新的开源类库---Apahche POI开源类库。这个类库的用途是:解析并生成Excel文件(Word、ppt)。Apahche POI基于DOM方式进行解析,将文件直接加载到内存,所以速度比较快,适合Excel文件数据量不…

Appium知多少

Appium我想大家都不陌生,这是主流的移动自动化工具,但你对它真的了解么?为什么很多同学搭建环境时碰到各种问题也而不知该如何解决。 appium为什么英语词典查不到中文含义? appium是一个合成词,分别取自“applicatio…

JavaEE企业开发新技术5

目录 2.18 综合应用-1 2.19 综合应用-2 2.20 综合应用-3 2.21 综合应用-4 2.22 综合应用-5 Synchronized : 2.18 综合应用-1 反射的高级应用 DAO开发中,实体类对应DAO的实现类中有很多方法的代码具有高度相似性,为了提供代码的复用性,降低…

Mac电脑安装蚁剑

1: github 下载源码和加载器:https://github.com/AntSwordProjectAntSwordProject GitHubAntSwordProject has 12 repositories available. Follow their code on GitHub.https://github.com/AntSwordProject 以该图为主页面:antSword为源码…

Flask快速搭建文件上传服务与接口

说明:仅供学习使用,请勿用于非法用途,若有侵权,请联系博主删除 作者:zhu6201976 一、需求背景 前端通过浏览器,访问后端服务器地址,将目标文件进行上传。 访问地址:http://127.0.0…

内网渗透-内网环境下的横向移动总结

内网环境下的横向移动总结 文章目录 内网环境下的横向移动总结前言横向移动威胁 威胁密码安全 威胁主机安全 威胁信息安全横向移动威胁的特点 利用psexec 利用psexec.exe工具msf中的psexec 利用windows服务 sc命令 1.与靶机建立ipc连接2.拷贝exe到主机系统上3.在靶机上创建一个…

ClickHouse 介绍

前言 一个通用系统意味着更广泛的适用性,但通用的另一种解释是平庸,因为它无法在所有场景内都做到极致。 ClickHouse 在没有像三驾马车这样的指导性论文的背景下,通过针对特定场景的极致优化,获得闪电般的查询性能。 ClickHous…

C++_第五周做题总结_构造与析构

id:31 A.Point(类与构造) 题目描述 下面是一个平面上的点的类定义,请在类外实现它的所有方法,并生成点测试它。 class Point {double x, y; public:Point(); // 缺省构造函数,给x,y分别赋值为0Point(double x_value…

JAVAEE——网络初始

文章目录 网络发展史独立模式网络模式局域网LAN路由器的诞生 网络通信的基础IP地址端口号 认识协议OSI七层模型TCP/IP五层模型 网络发展史 独立模式 在原始的年代中电脑间想要通信需要两台电脑连接一根网线,但是一台电脑基本上只有一个接口。因此想要链接更多的电…

HCIP课后习题之一

1、路由协议用工作机制上分为那几种?分别是? A:两种。分别是静态路由和动态路由(可分为IGP和EGP) 2、IGP和EGP协议有哪些? A:IGP: RIP、OSPF、ISIS、EIGRP EGP: BGP 3、路由优先级的用途&…

自动化测试selenium(2)

目录 WebDriver介绍 WebDriver使用 使用WebDriver驱动操作浏览器(打开一个百度) WebDriver 相关API 定位元素 操作元素 上一篇主要介绍了自动化测试的概念以及selenium的基本原理, 这里我们来讲一下如何利用selenium来写测试用的脚本. WebDriver介绍 Selenium是一个用于…

1043: 利用栈完成后缀表达式的计算

解法&#xff1a; #include<iostream> #include<stack> using namespace std; int main() {char a;stack<int> sk;while (cin >> a && a ! #) {if (a > 0 && a < 9) {sk.push(a - 0);}else {int num2 sk.top();sk.pop();int n…

javaWeb项目-外面点餐系统功能介绍

项目关键技术 开发工具&#xff1a;IDEA 、Eclipse 编程语言: Java 数据库: MySQL5.7 框架&#xff1a;ssm、Springboot 前端&#xff1a;Vue、ElementUI 关键技术&#xff1a;springboot、SSM、vue、MYSQL、MAVEN 数据库工具&#xff1a;Navicat、SQLyog 1、Spring Boot框架 …

书生·浦语大模型全链路开源体系-第3课

书生浦语大模型全链路开源体系-第3课 书生浦语大模型全链路开源体系-第3课相关资源RAG 概述在 InternLM Studio 上部署茴香豆技术助手环境配置配置基础环境下载基础文件下载安装茴香豆 使用茴香豆搭建 RAG 助手修改配置文件 创建知识库运行茴香豆知识助手 在茴香豆 Web 版中创建…

逆向IDA中Dword,数据提取

我们可以看见数据是这样的&#xff0c;第一个是1cc 但是我们shifte就是 这个因为他的数据太大了&#xff0c;导致高位跑后面去了 这个时候&#xff0c;我们右键——convert——dword 这样就可以提取到争取的数据了 比如第一个数据 0x1cc a0xcc b0x1 print(hex((b<<8…

【Java】maven的生命周期和概念图

maven的生命周期&#xff1a; 在maven中存在三套"生命周期"&#xff0c;每一套生命周期,相互独立,互不影响的,但是中同一套生命周期里,执行后面的命令会自动先执行前面的命令 CleanLifeCycle&#xff1a;清理的生命周期 clean defaultLifeCycle&#xff1a;默认的…

“成像光谱遥感技术中的AI革命:ChatGPT在遥感领域中的应用“

遥感技术主要通过卫星和飞机从远处观察和测量我们的环境&#xff0c;是理解和监测地球物理、化学和生物系统的基石。ChatGPT是由OpenAI开发的最先进的语言模型&#xff0c;在理解和生成人类语言方面表现出了非凡的能力。本文重点介绍ChatGPT在遥感中的应用&#xff0c;人工智能…

智能物联网远传冷水表管理系统

智能物联网远传冷水表管理系统是一种基于物联网技术的先进系统&#xff0c;旨在实现对冷水表的远程监测、数据传输和智能化管理。本文将从系统特点、构成以及带来的效益三个方面展开介绍。 系统特点 1.远程监测&#xff1a;系统可以实现对冷水表数据的远程监测&#xff0c;无…

C语言洛谷题目分享(9)奇怪的电梯

目录 1.前言 2.题目&#xff1a;奇怪的电梯 1.题目描述 2.输入格式 3.输出格式 4.输入输出样例 5.说明 6.题解 3.小结 1.前言 哈喽大家好啊&#xff0c;前一段时间小编去备战蓝桥杯所以博客的更新就暂停了几天&#xff0c;今天继续为大家带来题解分享&#xff0c;希望大…