Graph知识图谱融入向量数据库,带来RAG效果飞升

01.

前言

随着大型语言模型(LLMs)在各种应用中的广泛使用,如何提升其回答的准确性和相关性成为一个关键问题。检索增强生成(RAG)技术通过整合外部知识库,为LLMs提供了额外的背景信息,有效地改善了模型的幻觉、领域知识不足等问题。然而,仅依靠简单的 RAG 范式存在一定的局限性,尤其在处理复杂的实体关系和多跳问题时,模型往往难以提供准确的回答。

将知识图谱(KG)引入 RAG 系统为解决这一问题提供了新的路径。知识图谱通过结构化的方式呈现实体及其关系,能够在检索过程中提供更为精细的上下文信息。通过利用 KG 的丰富关系性数据,RAG 不仅能够更精准地定位相关知识,还能更好地处理复杂的问答场景,如对比实体间的关系或回答多跳问题。

Comparision between Direct LLM, RAG, and GraphRAG.

https://arxiv.org/pdf/2408.08921

然而,当前的 KG-RAG 还处在早期的探索阶段,行业对相关技术路线还未达成统一共识。比如,如何有效检索知识图谱中的相关 entities 和 relationships,如何将向量相似性搜索和图结构结合起来,目前没有形成统一的范式。

比如,微软的 From Local to Global 使用大量的 LLM 访问将子图结构以汇总成社区摘要,但这一过程消耗大量的 LLM tokens,使这一方法昂贵且不切实际。HippoRAG 使用 Personalized PageRank 重新更新图节点的权重,以找到重要的 entities,但这种以 entity 为中心的方法很容易受到 NER 遗漏的影响,而忽略了上下文中的其它信息。IRCoT 使用多步LLM 请求来逐步推理得到最终的回答,但这种方法将 LLM 引入多跳查找过程,导致回答问题的时间过长,很难实际应用。

我们发现,实际上用一个简单的多路召回然后 rerank 的 RAG 范式,就能够很好的处理复杂的多跳 KG-RAG 场景,而并不需要过多的 LLM 开销和任何图算法。

Our simple pipeline is not much different from the common multi-way retrieval and rerank architecture, but it can achieve the SoTA performance in the multihop graph RAG scenario.

尽管使用很简单的架构,但我们的方法显著超过目前 state-of-the-art 的解决方案,比如 HippoRAG,并且仅仅需要用到向量存储和少量的 LLM 开销。我们首先引入我们方法的理论基础,然后介绍具体方法过程。

02.

理论

我们观察到在实际的 KG-RAG 场景中,存在跳数有限性假设**:在 KG-based RAG 中,实际问的** query 问题的查询路由只需要在知识图谱中进行有限的,且很少的跳数(如少于4跳)的查询,而并不需要在其中进行非常多次跳数。

我们的跳数有限性假设基于两点很重要的观察:1. query 复杂度有限性, 2.“捷径”的局部 dense 结构。

  1. query 复杂度有限性

用户的一个提问 query,不太可能涉及到非常多的 entities,或者引入复杂的 relationships。否则这个问题会显得非常奇怪和不切实际。

Normal query vs. Weird query

正常的query:“爱因斯坦获得诺贝尔奖的时间是哪一年?”

In which year did Einstein win the Nobel Prize?

知识图谱中的查询路径:

  • 找到节点“爱因斯坦”。

  • 跳转到与“爱因斯坦”相关的“诺贝尔奖”节点。

  • 返回奖项颁发的年份信息。

跳数:2 跳

说明:这是一个常见的用户问题,用户想要知道的是与某个具体实体直接相关的单一事实。知识图谱在这种情况下只需要进行少量跳数的查询即可完成任务,因为所有相关信息都直接与爱因斯坦这个中心节点关联。这种查询在实际应用中非常普遍,例如查询名人背景信息、奖项历史、事件时间等。

古怪的query:“相对论的发现者获得诺贝尔奖的年份与他们在一个以银行保密法和阿尔卑斯山壮丽风景而闻名的国家发明的专利数量之间有什么关系?”

What is the relationship between the year the discoverer of the theory of relativity received the Nobel Prize and the number of patents they invented in a country famous for its bank secrecy laws and the magnificent scenery of the Alps?

知识图谱中的查询路径:

  • 找到“相对论”的“发明者”是“爱因斯坦”。

  • 跳转到与“爱因斯坦”相关的“诺贝尔奖”节点。

  • 查找“诺贝尔奖”获奖年份。

  • 通过“银行保密法和阿尔卑斯山”找到“瑞士”

  • 跳转到与“爱因斯坦”相关的“专利”节点。

  • 查找与瑞士期间相关的专利信息。

  • 比较专利数量和获奖年份之间的关系。

跳数:7跳

说明:这个问题较为复杂,要求不仅仅是查询单一的事实,还涉及多个节点之间的复杂关联。这种问题在实际场景中不太常见,因为用户一般不倾向于在一次查询中寻求如此复杂的信息交叉。通常,这类问题会被分解为多个简单查询,以便逐步获取信息。

  1. “捷径”的局部 dense 结构

知识图谱中是一个存在一些局部 dense 结构,对于有些 query,有一些“捷径”,可以从一个 entity 通过捷径快速连接到多跳之外的 entity。

“Shortcuts” structure

假设我们有一个家庭关系的知识图谱,包含以下实体和关系:

  • AlexBrian 的孩子 (Alex - child_of - Brian)

  • Cole 嫁给了 Brian (Cole - married_to - Brian)

  • DanielCole 的哥哥 (Daniel - brother_of - Cole)

  • DanielAlex 的舅舅 (Daniel - uncle_of - Alex)

这是一个包含冗余信息的密集型的知识图谱。显然,可以通过前三条 relationships 推导出最后一条 relationship。但知识图谱中往往存在一些这种冗余信息的捷径。这些捷径可以减少一些 entities 之间的跳数。

基于这两点观察,我们发现,有限次数的在知识图谱内的路由查找过程,只涉及到局部的知识图谱信息。因此,将query 进行知识图谱内信息检索的过程可以用下面这两步来实现:

  1. 路由的起点,可以通过向量相似性查找来完成。可以涉及到 query 与 entities 或 query 与 relationships 的相似度关系查找。

  2. 从起点找到其它信息的路由过程,可以用一个 LLM 来代替完成。将这些备选信息放进 prompt 里,依托 LLM 强大的自注意力机制来挑选有价值的路由。由于 prompt 长度有限,所以只能将局部知识图谱的信息放入,比如起点附近限定跳数内的知识图谱信息,这一点是正好可以由跳数有限性来保证。

整个过程不需要其任何它的 KG 存储和复杂的 KG 查询语句,只需要使用 vector database 和一次 LLM 的访问。而 vector retrieval + LLM rerank 才是这个 pipeline 中最关键的部分,这也就解释了我们只用一个传统的两路召回架构,就可以达到远超基于图理论的方法(如 HippoRAG) 的表现。这也说明了,实际上不需要复杂的图算法,我们只需要将图结构的逻辑关系存储在向量数据库里,用一个传统的架构就可以进行逻辑上的子图路由,而现代 LLM 强大的能力帮助做到了这一点。

03.

方法概览

我们的方法只涉及在 RAG 流程中检索 passages 的阶段,不涉及 chunking 或 LLM response generation 的创新和优化。我们假设已经得到了一组 corpus 的三元组信息,它包含一系列的 entities 和 relationships 信息。这些信息可以表示一个知识图谱的信息。

我们将 entities, relationships 信息分别进行向量化,并存储在向量存储里,这样存储了一个逻辑上的知识图谱。当进行 query 查询时,会先把相关的 entities 和 relationships 检索出来。通过这些 entities 和 relationships,我们在图结构上进行有限的拓展。将这些 relationships 与 query 问题组装进 prompt 内,使用 LLM 的能力对这些 relationships 进行 reranking。最后得到 topK 个重要的 relationships,在他们的 metadata 信息内获得与他们相关的 passages,作为最终的 retrieved passages。

Overall pipeline of our method

04.

方法详解

4.1. 向量入库

我们准备两个向量存储 collections,一个是 entity collection,另一个是 relationship collection。将一系列的 unique entities 信息和 relationships 信息,使用 embedding 模型,转换成向量,存储在向量存储中。对于 entities 信息,直接将他们的字符描述转换成 embedding。对于 relationships 的原始数据形式,它的结构是一个三元组:

(Subject, Predicate, Object)

我们启发性地直接将它们合并成一个句子

Subject Predicate Object

比如:

(Alex, child of, Brian) -> “Alex child of Brian”

(Cole, married to, Brian) -> “Cole married to Bria”

然后直接将这个句子转换成 embedding,然后存储在向量数据库里。这种做法方便且直接,虽然这样做可能存在少量的语法问题,但这不影响句子含义的表达,也不影响它在向量空间中的分布。当然,我们同样也鼓励在前期抽取三元组的时候,直接使用 LLM 生成简短的句子描述。

4.2. 向量相似搜索
  • 对于输入的 Query,我们遵循常见的 GraphRAG 中的范式(如HippoRAG,MS GraphRAG),将 query 提取 entities,对于每个 query entity,转换成 embedding,分别对 entity collection 进行 vector similarity search。然后将所有 query entities搜索得到的结果进行合并。

  • 对于 relationship 的向量搜索,我们直接将 query string,转换成 embedding,对 relationship collection 进行 vector similarity search。

4.3. 扩展子图

Expanding subgraph from two retrieved ways, then merged them together

我们以搜索到的 entities 和 relationships 为知识图谱里的起始,往外扩大一定的范围。对于起始 entities,我们往外扩大一定的跳数后,取它们邻接的 relationships,记为

对于起始 relationships,我们往外扩大一定跳数,得到

我们将两个 set 取并集,

基于跳数有限性,我们仅需要扩大较小的度数(如1,2等),就能涵盖大部分可能有助回答的 relationships。请注意,这一步扩展的度数的概念和回答问题总共需要的跳度的概念不同。比如,如果回答一个 query 问题涉及两个相差 n 跳的 entities,那么实际上往往只需要扩展 ⌈n / 2⌉ 度就可以,因为这两个 entities 是被向量相似召回后的两个起始端点。如图,向量召回到了两个红色的 entities,只需要从它们开始,相向扩展 2 度,就能覆盖到 4 度的跳数,这足以回答涉及到这两个 entities 的 4 跳问题。

In fact, to answer the question with 4 degree hops, you only need to expand it by 2 degrees from both end points in the setting.

4.4. LLM Rerank

这一步中,我们使用 LLM 强大的自注意力机制,完成对 relationships 候选集的进一步筛选。我们使用 one-shot prompt,将 query 和 relationships 候选集放入 prompt 里,要求 LLM 从中选择出可能对回答这个 query 有帮助的 relationships。考虑到有些 query 可能存在一定的复杂性,我们采用 Chain-of-Thought 的思想,让 LLM 的回答里写下思考过程,我们观察到,这一方法对一些偏弱的模型有一些帮助。我们规定 LLM 的返回为 json 格式,以便于解析格式。具体的 prompt 参考如下:

One shot input prompt

I will provide you with a list of relationship descriptions. Your task is to select 3 relationships that may be useful to answer the given question. Please return a JSON object containing your thought process and a list of the selected relationships in order of their relevance.  **Question:**  
When was the mother of the leader of the Third Crusade born?  **Relationship descriptions:**  
[1] Eleanor was born in 1122.  
[2] Eleanor married King Louis VII of France.  
[3] Eleanor was the Duchess of Aquitaine.  
[4] Eleanor participated in the Second Crusade.  
[5] Eleanor had eight children.  
[6] Eleanor was married to Henry II of England.  
[7] Eleanor was the mother of Richard the Lionheart.  
[8] Richard the Lionheart was the King of England.  
[9] Henry II was the father of Richard the Lionheart.  
[10] Henry II was the King of England.  
[11] Richard the Lionheart led the Third Crusade.  

One shot input prompt

{  "thought_process": "To answer the question about the birth of the mother of the leader of the Third Crusade, I first need to identify who led the Third Crusade and then determine who his mother was. After identifying his mother, I can look for the relationship that mentions her birth.",  "useful_relationships": [  "[11] Richard the Lionheart led the Third Crusade",  "[7] Eleanor was the mother of Richard the Lionheart",  "[1] Eleanor was born in 1122"  ]  
}  

这个 prompt 是一个展示的参考,实际上,如何把 relationships 中的三元组转成一个通顺的短句,是一个棘手的问题。但是,你完全可以用上文提到的启发性的方法,把三元组直接拼在一起。如:

(Eleanor, born in, 1122) 可以直接转成 Eleanor born in 1122

这种方式有时会带来一定的语法问题,但它是最快,最直接的方式,也不会对 LLM 带来误解。

4.5. 获得最终 passages

对于上面的例子,实际上可以在 LLM rerank 这个阶段直接返回最终的回答,比如在 One shot output prompt 的 json 字段里加上比如 “final answer”的字段。但是,这一步的 prompt 里只有 relationship 的信息,不一定所有问题都可以在这个阶段返回最终答案,所以其它具体的信息应该要在原始的 passsage 里获得。

LLM 返回精确排序后的 relationships。我们只需要取出先前在存储中的对应 relationship 信息,从中获取相应的 metadata,在那里有对应的 passage ids。这些 passages 信息就是最终被 retrieved 到的 passages。后续生成回答的过程和 naive RAG 一样,就是将它们放入 prompt 的 context 中,让 LLM 给出最后的回答。

05.

结果

我们使用与 HippoRAG 中一致的 dense embedding,facebook/contriever,来作为我们的 embedding 模型,可以看到,在三个 multi-hop 的数据集上结果比较上,我们的方法大幅超过 naive RAG 和 HippoRAG 的结果。所有的方法使用相同的 embedding 模型设置。我们使用 Recall@2 作为我们的衡量指标,它表示,

Recall(召回率) = 检索到的相关文档总数/数据存储中相关文档总数

On the multi-hop datasets, our method outperforms naive RAG and HippoRAG in all datasets, all of them are compared using the same facebook/contriever embedding model.

这一结果说明了,即使是最简单的多路召回然后 rerank 的 RAG 范式,应用在 graph RAG 的场景上,也能得到 state-of-the-art 的 performance。这一结果也说明了,合理的向量召回和 LLM 设置,是应用在 multi-hop QA 场景中的关键。

回顾我们的方法,把 entities 和 relationships 转成向量,并进行搜索的作用就是寻找子图的起点,它像是破解刑侦案件中的现场发现的“线索”。而后面扩展子图和 LLM rerank 的过程像是具体通过这些“线索”进行分析的过程,LLM 拥有“上帝视角”,可以在一众的候选 relationships 中,聪明地选择对破案有用的 relationships。这两个阶段,回归本质,也就是对应朴素的 vector retrieval + LLM reranking 范式。

在实践中,我们推荐大家使用开源 Milvus,或它的全托管版本 Zilliz Cloud,来存储并搜索 graph 结构中大量的 entities 和 relationships。而 LLM 可以选择开源模型如 Llama-3.1-70B 或闭源的 GPT-4o mini,中等以上规模的模型都能胜任这些任务。你也可以参考我们的 notebook 代码示例https://milvus.io/docs/graph_rag_with_milvus.md,以获得更多实现的细节。

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/443858.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux-sed和gawk

文本处理-sed编辑器 文本处理-gawk程序 文本处理-sed编辑器基础 文本处理-sed编辑器基础-使用地址 文本处理-sed编辑器基础-删除行 文本处理-sed编辑器基础-插入和附加文本 文本处理-sed编辑器基础-修改行/转换命令 文本处理-sed编辑器基础-回顾打印-打印行/打印行号/列出行 文…

「OC」NSArray的底层逻辑和遍历方法

「OC」NSArray的底层逻辑和遍历方法 文章目录 「OC」NSArray的底层逻辑和遍历方法前言NSArray的底层逻辑占位符init后的空NSArray只有单个元素的NSArray大于一个元素的NSArray可变数组NSMutableArray总结图片 遍历NSArray1. for循环2. 枚举3.for—in4. 多线程1.for 循环&fo…

MES管理系统对中小企业有哪些帮助

MES管理系统解决方案对中小企业具有显著的帮助,主要体现在以下几个方面: 一、提升生产效率 MES管理系统能够实时监控生产过程,提供准确的生产数据和及时的反馈。这种实时监控与数据分析能力,使中小企业能够精准把握生产脉搏&…

华为---MUX VLAN简介及示例配置

目录 1. 产生背景 2. 应用场景 3. 主要功能 4. 基本概念 5. 配置步骤及相关命令 6.示例配置 6.1 示例场景 6.2 网络拓扑图 6.3 配置代码 6.4 配置及解析 6.5 测试验证 配置注意事项 1. 产生背景 MUX VLAN(Multiplex VLAN)提供了一种通过VLA…

【JavaScript】JavaScript 与 V8

浏览器中运行 html 和 css 代码: html 和 css 执行过程: js 由 js 引擎(比如现在最为主流的 V8)执行。 高级的编程语言都是需要转成最终的机器指令来执行的;事实上我们编写的JavaScript无论你交给浏览器或者Node执行&…

升级 OpenSSL 的详细步骤(解决 SSH 漏洞的前提)

目录 前言1. 准备工作1.1 安装必要的依赖1.2 下载 OpenSSL 源码 2. 解压和配置2.1 解压文件2.2 配置编译参数 3. 编译和安装3.1 编译源码3.2 安装 OpenSSL 4. 验证安装5. 解决 SSH 漏洞的必要性6. 结语 前言 在信息安全的时代,服务器的安全性至关重要。特别是在互联…

高被引算法GOA优化VMD,结合Transformer-SVM的轴承诊断,保姆级教程!

本期采用2023年瞪羚优化算法优化VMD,并结合Transformer-SVM实现轴承诊断,算是一个小创新方法了。需要水论文的童鞋尽快! 瞪羚优化算法之前推荐过,该成果于2023年发表在计算机领域三区SCI期刊“Neural Computing and Applications”…

智能配音软件哪款好?分享5个搞怪软件

想要让视频或社交媒体内容更加生动有趣?搞笑配音软件是个不错的选择。 无论是嘻哈风格的视频,还是搞怪的段子,合适的配音都能让内容增色不少。 今天,就让我们来探索六个文字配音软件,它们不仅能帮你实现搞笑配音&…

Centos7安装RocketMQ[图文教程]

文章目录 RocketMQ介绍基于Linux服务部署RocketMQ(单机)配置JDK环境下载RocketMQ部署RocketMQ1、解压2、修改VM参数3、配置环境变量4、编写Service文件5、启动服务 基于Docker方式部署RocketMQ安装Docker编写docker-compose文件启动RocketMQ服务 部署Roc…

嵌入式面试——FreeRTOS篇(四) 信号量

本篇为:FreeRTOS信号量篇 信号量 1、什么是信号量 答: 信号量是一种解决同步问题的机制,可以实现对共享资源的有序访问。 2、信号量简介 答: 当计数值大于0,表示有信号量资源。当释放信号量,信号量计数…

SQL 干货 | 使用 EXISTS 编写 SELECT 查询

基于 SQL 中的 EXISTS 运算符为我们提供了一种基于其他数据是否存在(或不存在)来检索数据的简便方法。更具体地说,它是一个逻辑运算符,用于评估子查询的结果,并返回一个布尔值,该值指示是否返回了行。尽管 …

Elasticsearch 实战应用

Elasticsearch 实战应用 引言 Elasticsearch 是一个分布式、RESTful 风格的搜索和分析引擎,能够快速、实时地处理大规模数据,广泛应用于全文搜索、日志分析、推荐系统等领域。在这篇博客中,我们将从 Elasticsearch 的基本概念入手&#xff…

ubuntu 开放 8080 端口快捷命令

文章目录 查看防火墙状态开放 80 端口开放 8080 端口开放 22端口开启防火墙重启防火墙**使用 xhell登录**: 查看防火墙状态 sudo ufw status [sudo] password for crf: Status: inactivesudo ufw enable Firewall is active and enabled on system startup sudo…

curl执行报【先没有那个文件或目录】解决办法

开发微信发过了curl命令后,执行报错 是空格导致的,解决办法是打开下面网址重新输入空格即可 在线curl命令转代码 删除这个空格 重新输入空格

SCI论文快速排版:word模板一键复制样式和格式【重制版】

关注B站可以观看更多实战教学视频:hallo128的个人空间 SCI论文快速排版:word模板一键复制样式和格式:视频操作 SCI论文快速排版:word模板一键复制样式和格式【重制版】 模板与普通文档的区别 为了让读者更好地了解模板&#xff…

国产工具链GCKontrol-GCAir助力控制律开发快速验证

前言 随着航空领域技术的不断发展,飞机的飞行品质评估和优化成为了航空领域的一个重要任务,为了确保飞行器在各种复杂条件下的稳定性,控制律设计过程中的模型和数据验证需要大量仿真和测试。 本文将探讨基于世冠科技的国产软件工具链GCKont…

前端Vue3字体优化三部曲(webFont、font-spider、spa-font-spider-webpack-plugin)

前端Vue字体优化三部曲(webFont、font-spider、spa-font-spider-webpack-plugin) 引言 最近前端引入了UI给的思源黑体字体文件,但是字体文件过于庞大,会降低页面首次加载的速度,目前我的项目中需要用到如下三个字体文…

IP协议报文

一.IP协议报头结构 二.IP协议报头拆解 1.4位版本 实际上只有两个取值,分别是4和6,4代表的是IPv4,6代表的是IPv6。 2.4位首部长度 IP协议报头的长度也是边长的,单位是*4,这里表示的大小为0~15,当数值为1…

从FastBEV来学习如何做PTQ以及量化

0. 简介 对于深度学习而言,通过模型加速来嵌入进C是非常有意义的,因为本身训练出来的pt文件其实效率比较低下,在讲完BEVDET后,这里我们将以CUDA-FastBEV作为例子,来向读者展示如何去跑CUDA版本的Fast-BEV,…

刷题 链表

面试经典150题 - 链表 141. 环形链表 class Solution { public:bool hasCycle(ListNode *head) {ListNode* slow head, *fast head;while (fast ! nullptr && fast->next ! nullptr) {slow slow->next;fast fast->next->next;if (slow fast) {return…