【论文精读】ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection

🌈 个人主页:十二月的猫-CSDN博客
🔥 系列专栏: 🏀论文精读_十二月的猫的博客-CSDN博客

💪🏻 十二月的寒冬阻挡不了春天的脚步,十二点的黑夜遮蔽不住黎明的曙光 

注:下文块引用部分均为猫猫的笔记 

目录

1. 摘要

2. 介绍

3. 相关工作

3.1 预训练语言模型

3.2 视觉语言模型

3.3 提示词调优工程

3.4 方法

3.4.1  Preliminaries

3.4.2 ID-like Prompt Learning

3.4.3 Loss函数的设计

4. 总结 


1. 摘要

       分布外(out -distribution, OOD)检测方法通常利用辅助离群值来训练识别OOD样本的模型,特别是从辅助离群值数据集中发现具有挑战性的离群值来提高OOD检测。然而,在有效区分最具挑战性的OOD样本方面,它们可能仍然面临限制,这些样本与分布中(ID)数据非常相似,即类ID样本。为此,我们提出了一种新的OOD检测框架,该框架使用CLIP[28]从ID样本的附近空间发现类ID异常值,从而有助于识别这些最具挑战性的OOD样本。然后提出了一个快速学习框架,该框架利用识别出的类id异常值进一步利用CLIP进行OOD检测的能力。得益于强大的CLIP,我们只需要少量的ID样本来学习模型的提示,而不需要暴露其他辅助的离群数据集。通过专注于最具挑战性的id -类OOD样本并优雅地利用CLIP的功能,我们的方法在各种真实世界的图像数据集上实现了卓越的少镜头学习性能(例如,在ImageNet-1k数据集上的4镜头OOD检测中,与最先进的方法相比,我们的方法将平均FPR95降低了12.16%,将平均AUROC提高了2.76%)。

2. 介绍

       当在实际环境中部署机器学习模型时,可能会遇到在训练过程中没有遇到的分布外(OOD)样本。当涉及到这些OOD输入时,错误决策的风险会增加,这可能会带来严重的安全问题,特别是在自动驾驶和医疗诊断等应用中。除了在ID样本上表现良好外,系统还需要识别OOD样本,以产生可信的预测。因此,OOD检测对于同等贡献是非常关键的为了在现实中安全地部署机器学习模型。

       现有方法[8,16,19]通常侧重于仅使用训练中的ID数据检测OOD样本,以预测OOD样本的较低置信度[7,23]或较高能量[20]。然而,由于缺乏OOD信息,这些模型难以有效地检测OOD。因此,一些研究[9,20]建议使用辅助离群值来正则化模型并识别OOD样本。Chen等[1]和Ming等[25]认为,选择更具挑战性的离群样本可以帮助模型更好地学习ID和OOD之间的决策边界。然而,这些有限的辅助异常值包含更少挑战性的异常值。此外,这些方法大多需要额外的离群数据,这使得它们在无法获得离群数据集时无效。最近,Du等[4]提出在训练过程中,在不需要额外数据的情况下,从ID数据特征空间的低似然区域合成虚拟离群数据来构建离群数据。该方法对鉴别ID和OOD有较强的疗效。然而,有两个主要的限制:i)它假设特征空间中的ID数据符合一类条件高斯分布,这在复杂的现实应用中并不总是成立[30];ii)需要大量的ID样本来构建更准确的ID数据分布,而获得大量的ID样本往往成本高昂。

OOD检测:开放式离群值检测,离群值就是和原本训练数据分布差距很大的数据。检测离群值作用就是不对这些数据做出判断,而是辅助识别出这些数据。

       因此,在这项工作中,我们专注于灵活地构建信息异常值,以提高对具有挑战性的OOD样本的识别。

       在本文中,我们首先构建了与ID数据高度相关的离群值,并引入了一种新的类ID提示用于OOD检测,从而有效地识别具有挑战性的OOD样本。我们发现具有挑战性的OOD样本通常与ID数据高度相关,表现出高度的视觉或语义相似性,例如,OOD的局部特征与ID相关(如图1所示)。由于OOD样本的这些类ID特征导致错误的预测,因此自然产生了一个想法:从ID样本中提取相关特征来构建具有挑战性的OOD样本。为此,我们对ID样本的邻近空间进行多次采样。在这些样本中,那些与ID提示相似度较低的样本不被归类为ID类,即使它们包含与ID类相关的特征。因此,这些样本自然被选为具有挑战性的OOD样本。与VOS[4]和NPOS[30]在特征空间的低似然区域合成虚拟离群点不同,我们的方法直接从原始图像中构建离群点,增强了灵活性和可解释性。

思考流程:

具有挑战性的OOD样本难以寻找———自己制造具有挑战性的OOD样本———具有挑战性=邻近空间(和ID特征空间上相似)———OOD样本(与ID提示相似度低)

       虽然我们可以构建具有挑战性的OOD样本,但有效识别这些OOD样本仍然具有挑战性。如图2左侧所示,“狼”代表了“狗”类的一个具有挑战性的OOD示例。这些图像与ID提示类似,导致分类概率高,并且在区分ID和OOD方面存在重大挑战。我们认为,仅仅依靠ID提示不足以解决这个问题。因此,我们引入了额外的提示来增强OOD识别。如图2右半部分所示。

前面工作:构建具有挑战性OOD样本,并通过这些OOD样本增强模型对于离散数据的学习。

通过前面学习,能够让模型(包括ID提示词工程)进一步学习出 特征相似但是提示词不相似 的数据。

从某种角度来说,进一步在ID提示词层面做到了不相似类分离。

但是对于狼、狗这类数据,仍然在图片特征值以及提示词上都是类似的。这种数据,我们难以处理。

       我们开发了一个额外的提示,称为“dog-like”,它类似于“dog”的提示。如果我们可以增加“狗样”提示和与“狗”高度相关的OOD样本之间的相似度,模型将通过“狗”提示识别狗,并通过“狗样”提示识别具有挑战性的OOD样本(包括“狼”)。

       具体来说,我们将额外的提示与这些构建的具有挑战性的OOD对齐,创建类似于ID提示的OOD提示,以有效地识别具有挑战性的OOD样本。大量的实验表明,我们的方法在各种现实世界的任务中实现了优越的少量OOD检测性能。与在训练过程中需要大量数据的方法[4,30]相比,我们的方法在每个类只使用一张图像的情况下,将平均FPR95分数从38.24%显著降低到24.08%,将平均AUROC从91.60%提高到94.70%。我们将我们的主要贡献总结如下:

       •我们提出了一个新的框架,无需额外的训练,通过利用CLIP自动探索ID样本附近空间中的类ID OOD样本,这有助于模型有效识别与ID相关的具有挑战性的OOD样本。

       •通过利用预训练的视觉语言模型的能力,提出了一种类似id的提示学习方法来识别最具挑战性的OOD样本,这些样本的行为类似id,但却不同。

       •我们在几个大规模数据集上验证了我们的方法,结果表明我们的方法取得了令人印象深刻的性能,在ImageNet-1K上4次OOD检测的平均AUROC达到96.66%。另外还进行了烧蚀实验来验证所设计方法的有效性

增加一个新的Prompt提示词,在训练时同时训练旧提示词和新的提示词。

从而针对性提高特征值相似的类的识别度

3. 相关工作

3.1 预训练语言模型

       Hendrycks和Gimpel[8]使用最大软最大概率(maximum softmax probability, MSP)建立了OOD检测的基线。随后的研究探索了通过ODIN评分[11,19]和Mahalanobis评分[16]来检测OOD。

1、利用MSP方法来建立OOD检测是一种相当直观、简单的OOD检测方法。

2、ODIN评分在OOD检测中的优势在于,它利用了温度缩放和扰动的结合,使得模型在处理未见过的分布时更加敏感。(手工调整缩放参数)

3、Mahalanobis评分的优势在于,它能够利用样本的分布信息,从而为OOD检测提供了一种更为可靠的方式。

       Fort等[6]首先将OOD检测任务扩展到预训练的视觉语言模型。esmailpour等[5]通过生成额外的负面标签来构建负面提示,增强了预训练的视觉语言模型的OOD检测性能。最近,Ming等[24]将MSP扩展到预训练的视觉语言模型,并探讨了softmax和温度缩放对OOD检测的影响。CLIPN[34]对CLIP进行了微调,使其能够输出负面提示,以评估图像中不存在概念的概率。

3.2 视觉语言模型

       对比视觉语言模型。与传统的机器学习模型相比,近年来大规模预训练的视觉语言模型在各种下游任务上取得了很大的进展。例如,CLIP[28]、FILIP[36]和ALIGN[13]利用对比损失(如InfoNCE损失[31])来学习图像和文本的对齐表示。匹配的图像-文本对的表示距离越来越近,不匹配的图像-文本对的表示距离越来越远。具体来说,这些方法采用了一种简单的双流架构,包括一个图像编码器和一个文本编码器,它将图像和文本特征映射到一个共享空间中进行相似性计算。CLIP[28]受益于4亿对图像-文本对的精选数据集,ALIGN[13]利用了18亿对噪声图像-文本数据。由于大规模的配对数据,这些视觉语言预训练模型表现出令人印象深刻的性能。

3.3 提示词调优工程

       基于CLIP的提示学习。在自然语言处理(NLP)中,Petroni等人[27]将提示概念化为类似于填空任务。其核心思想是诱导一个预先训练的语言模型,在给出完形提示的情况下生成答案。使用这种范式可以有效地处理情感分析等任务。然而,它在很大程度上依赖于设计良好的提示符。为了避免手动设计大量提示,一些研究[17,18]引入了提示调优作为解决方案。提示调整从连续输入嵌入空间的下游数据中学习提示信息,为基础模型的微调提供了一种参数高效的方法。尽管快速学习在NLP中被广泛采用,但它在视觉领域的探索仍然有限。最近,CoOp[39]和CoOp[38]对CLIP[28]进行了提示调优,通过最小化目标任务上的分类损失来调优提示,有效提高了CLIP在相应下游任务上的性能。大量研究[22,26,29]利用基于CLIP的提示学习来提高在各种下游任务中的表现。

3.4 方法

3.4.1  Preliminaries

       Zero-shot classification with CLIP。CLIP由文本编码器T: T→R d和图像编码器I: x→R d组成,分别用于获取文本T和图像x的特征向量。在执行分类任务时,假设已知标签集Y = {y1, y2,…, yK},我们可以构造一个概念向量T (tk), k∈{1,2,…, K},其中tk是标签yk的文本提示符“< yk >的照片”。我们将文本和图像的特征分别表示为h = T (T)和z = I(x)。我们首先获得图像特征相对于所有文本特征的相似度sk(x) = sim(hk, z) = sim(T (tk), I(x)),其中sim(·,·)表示余弦相似度。对应于yk在x上的预测概率pk可以表示为

p_k(x;\mathcal{Y},\mathcal{T},\mathcal{I})=\frac{e^{s_k(x)/\tau}}{\Sigma_{k=1}^Ke^{s_k(x)/\tau}},\quad(1)

式中τ为softmax函数的温度 

这里的公式类似前面提过的ODIN评分,在普通的softmax基础上加入T用来调节温度

       Prompt学习。为了进一步提高CLIP在few-shot分类上的性能,CoOp[39]在文本的嵌入层上构造了一个可学习的张量。具体来说,CoOp将提示符的可学习张量初始化为t = [V]1[V]2…[V]L[CLASS],其中[V]L (L∈{1,2,…, L})是一个与词嵌入相同维数的可学习向量,维数设置为512。然后根据样本的分类概率构造一个损失函数,如交叉熵损失,来优化可学习提示。

       Out-of-Distribution Detection.。OOD 检测通常构建一个 OOD 检测器,用 F(x) 表示,即一个二元分类器

F(x)=\left\{\begin{matrix}ID,&S(x)\geq\gamma\\OOD,&S(x)<\gamma,\end{matrix}\right.\quad(2)

       其中,S(x) 是 OOD 检测任务中的得分函数,γ 是决定样本属于 ID 还是 OOD 的阈值。例如,Hendrycks 和 Gimpel [8] 和 Liu 等人[20]使用软分类概率的最大值和能量的最大值来判断样本是属于 ID 还是 OOD。[20] 分别使用 softmax 和 energy 的最大分类概率作为得分函数 S(x)。

3.4.2 ID-like Prompt Learning

       在本文中,我们介绍了一种新颖的少样本 OOD 检测模型,该模型采用裁剪和 CLIP 模型来创建具有挑战性的离群值,从而提高 OOD 检测能力。此外,我们还利用提示学习来获取 ‘ID-like’ 的 OOD 提示。如图 3 所示,我们的框架由两个主要部分组成:(1) Constructing outliers from ID samples: 少样本设置下的训练集表示为 D = {(x1, y1),(x2, y2), ...,(xN , yN )} 。为了充分探索训练样本的临近空间,我们对每个 ID 样本 xi 进行多次随机裁剪,得到集合 X crop i = {x crop i,1 , x crop i,2 , ..., x crop i,M },其中 M 是随机裁剪的迭代次数。同时,我们使用预定义模板创建相应的类别描述文本 tk,例如 “一张〈yk〉的照片”,其中 yk∈Y 表示相应的类别名称。接下来,利用预训练模型CLIP,我们计算样本集 X crop i 中的样本与描述 tk 之间的余弦相似度。根据余弦相似度的强弱,我们分别从相似度最高和最低的片段中提取 ID 和 OOD 样本,定义它们为 Xin i = {x in i,1 , xin i,2 , ..., xin i,Q} 和 Xout i = {x out i,1 , xout i,2 , ..., xout i,Q} ,其中 Q 是用户定义的超参数。最后,我们得到由所有 ID 样本构建的 Din = {(x in 1,1 , y1),(x in 1,2 , y1), ...,(x in N,Q, yN )} 和 Dout = {x out 1,1 , xout 1,2 , ..., xout N,Q} 。

利用随机裁剪的方法达到一下目的:

        1、增加了数据样本数量

        2、增加模型稳定性(参数缺失也可以识别的很好)

        3、减少噪声的影响

具体可以看下面这篇文章:深度学习训练中为什么要将图片随机剪裁(Random Crop)_randomcrop-CSDN博客

核心思想1:利用图片随机裁剪生成新数据;
核心思想2:利用余弦相似度划分

       (2) 提示学习: 我们为每个类别初始化一个可学习的提示,形成 ID 提示集 T in = {t in 1 , tin 2 , ..., tin K },并初始化一个额外的 OOD 提示集 T out = {t out 1 , tout 2 , ..., tout C },其中 C 是 OOD 提示的数量。鉴于单个描述所覆盖的范围有限,我们引入了多个 OOD 描述来增强覆盖范围。我们使用 CoOp [39],随机初始化这些文本描述的嵌入,并使用损失函数对其进行优化,从而学习改进后的提示。

为OOD的离散数据分开形成一个Prompt提示词

K:已知类别的样本数量

C:需要判断的OOD样本数量

3.4.3 Loss函数的设计

       在训练过程中,我们根据上一节提到的算法获得分布内和分布外数据,分别记为 Din 和 Dout。我们通过由三个项组成的损失函数来优化提示。

前提知识:

交叉熵的两种表示:

H(p, q)=\sum_{i=1}^{n} p\left(x_{i}\right) \log \frac{1}{q\left(x_{i}\right)}=-\sum_{i=1}^{n} p\left(x_{i}\right) \log q\left(x_{i}\right)

H(P,Q)=\text { Entropy }=\mathbb{E}_{x \sim P}[-\log Q(x)]

其中Q和P是两种分布的概率分布函数(这里是离散型

       分布内损失:为了确保分布内数据的分类性能,我们使用了标准的交叉熵损失函数,该函数用于测量 ID 样本的预测标签概率与地面实况标签之间的差异。形式上,ID 交叉熵损失 Lin 的定义是:

\mathcal{L}_{in}=\mathbb{E}_{(x,y)\sim D^{in}}[-\log\frac{e^{s_{*}/\tau}}{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}+\Sigma_{c=1}^{C}e^{s_{c}^{out}/\tau}}],(3)

Din:实况标签下的概率分布函数

log后面:预测标签的概率分布函数

参数说明: 

S*:实况记录Prompt的encoder值Image的encoder值余弦相似度

Sink:实况记录的image值x的encoder值Tin中的第k个prompt值的encoder值的余弦相似度

SoutC:实况记录的image值x的encoder值Tout中的第c个prompt值的encoder值的余弦相似度

x,y:目前实况的记录值(image值以及标签值)

Xin:分布内的crop后的image值的集合

y:分布内针对crop后的image的标签值(动物类别),分布外标签的y值是要求解(未知)

Xout:分布外的crop后的image值的集合

Din:Xin和y的整合

Dout:Xout的整合

Tin:按照Xin的标签值(类别)创建的待学习的Prompt值

Tout:为了OOD样本所创建的Prompt值(Prompt数量是可调节的超参数,根据OOD样本的数量)

预测标签的概率值:模型预测出真实标签的概率值

       分布外损失:为了使 OOD 提示与异常值保持一致,我们使用了交叉熵损失函数。值得注意的是,在理想情况下,每个类别都会有一个 ID 提示和一个 OOD 提示。但是,为了节省计算资源并提高训练效率,我们将 OOD 提示的数量固定为 100。因此,当 OOD 提示不足以与 ID 类别建立一一对应关系时,我们会最大限度地提高OOD 提示与异常值之间的整体相似性(更加关注整体相似性,而不是每一个类别的局部相似性)。为此,我们提出了以下损失 Lout:

\mathcal{L}_{out}=\mathbb{E}_{x\sim D^{out}}[-\log\frac{\Sigma_{c=1}^{C}e^{s_{c}^{out}/\tau}}{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}+\Sigma_{c=1}^{C}e^{s_{c}^{out}/\tau}}]. (4)

与一般损失函数不同点:将异常值和整体OOD提示建立损失,而不是一个异常值对应一个OOD提示

个人观点:由于异常值数量不多,难以做到让模型详细判断异常值所属的类别 。因此捆绑整体的异常值,最终让模型做到能够识别出异常值即可,不需要确定异常值所属的类别

因此,降低模型训练的资源以及数据量要求!!

提高整体相似性:  

整体loss拟合会考虑到其他所有OOD异常点的影响

正常的loss拟合仅仅考虑目前这个异常点对模型的影响

因此,整体loss拟合每次的调整相对较小,模型更容易收敛、平稳,训练更容易。

       此外,我们还观察到,在训练期间以下列形式实施 Lout 更有利于优化提示:

\mathcal{L}_{out}=\mathbb{E}_{x\sim D^{out}}[\log\frac{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}}{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}+\Sigma_{c=1}^{C}e^{s_{c}^{out}/\tau}}].\quad(5)

       虽然它们的优化目标相似,但前者倾向于最大化 OOD 提示和异常值之间的相似性,而后者倾向于最小化 ID 提示和异常值之间的相似性,因此在训练过程中略有不同。

       多样性正则化:由于所有 OOD 提示都是随机初始化的,并在公式 4 所示的相同目标下进行优化,因此 OOD 提示之间存在过度相似的风险。相似的 OOD 提示可能会导致可检测的 OOD 类别数量减少。为了缓解这一问题并确保 OOD 提示语的多样性,我们引入了额外的损失 Ldiv,明确地最大化提示语之间的不相似性:

\mathcal{L}_{div}=\frac{\Sigma_{c=1}^{C-1}\Sigma_{j=c+1}^{C}sim(h_{c}^{out},h_{j}^{out})}{C(C-1)/2},\quad(6)

hout:OOD提示语构成的集合 

确保OOD提示语多样性:引入格外损失Ldiv,通过最大化Ldiv来确保提示语之间的不同性

        具有平衡超参数 λout 和 λdiv 的总体损失函数为:

\mathcal{L}=\mathcal{L}_{in}+\lambda_{out}\mathcal{L}_{out}+\lambda_{div}\mathcal{L}_{div}.\quad(7)

        推理:在执行分类任务时,我们采用与 CLIP 相同的分类方法,完全依靠 ID 提示进行分类。对于 OOD 检测,我们将评分函数定义为:

S(x)=\frac{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}}{\Sigma_{k=1}^{K}e^{s_{k}^{in}/\tau}+\Sigma_{c=1}^{C}e^{s_{c}^{out}/\tau}}.\quad(8)

Ldiv要最大化,Lout在调整后也是要最大化,而Lin要求最小化。

因此在Lout和Ldiv前面添加调整的超参数,这个参数应该为负值。

保证整体L要求是最小化。

4. 总结 

如果想要学习更多深度学习论文,大家可以点个关注并订阅,持续学习、天天进步

你的点赞就是我更新的动力,如果觉得对你有帮助,辛苦友友点个赞,收个藏呀~~~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/460297.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【文心智能体 | AI大师工坊】如何使用智能体插件,完成一款旅游类智能体的开发,来体验一下我的智能体『​​​​​​​背包客』

&#x1f680;『背包客』点击前往体验&#xff1a;https://mbd.baidu.com/ma/s/d7RHMlWh 最近参加了百度文心智能体平台AI大师工坊&#x1f389;活动&#xff0c;在这个活动中&#xff0c;我利用文心平台提供的各种插件、大模型等工具&#xff0c;打造了一个工具类的智能体应用…

理解ADC:为什么量化噪声也会产生谐波?附带介绍 Dither(抖动)

前言 今天继续从经典的 ADI 《MT-001》说起&#xff0c;通常情况下量化噪声是白噪声&#xff0c;但如果量化噪声与输入信号之间存在相关性&#xff0c;就不能被当做白噪声对待。 文中举了一个有意思的例子&#xff1a;理想 ADC 的采样频率为 80 MSPS &#xff0c;一种情况输入…

从0到1构建 UniApp + Vue3 + TypeScript 移动端跨平台开源脚手架

&#x1f680; 作者主页&#xff1a; 有来技术 &#x1f525; 开源项目&#xff1a; youlai-mall &#x1f343; vue3-element-admin &#x1f343; youlai-boot &#x1f343; vue-uniapp-template &#x1f33a; 仓库主页&#xff1a; GitCode&#x1f4ab; Gitee &#x1f…

Docker部署教程:打造流畅的斗地主网页小游戏

Docker部署教程:打造流畅的斗地主网页小游戏 一、项目介绍项目简介项目预览二、系统要求环境要求环境检查Docker版本检查检查操作系统版本三、部署斗地主网页小游戏下载镜像创建容器检查容器状态查看容器日志安全设置四、访问斗地主网页小游戏五、总结一、项目介绍 项目简介 …

计算机视觉常用数据集Cityscapes的介绍、下载、转为YOLO格式进行训练

我在寻找Cityscapes数据集的时候花了一番功夫&#xff0c;因为官网下载需要用公司或学校邮箱邮箱注册账号&#xff0c;等待审核通过后才能进行下载数据集。并且一开始我也并不了解Cityscapes的格式和内容是什么样的&#xff0c;现在我弄明白后写下这篇文章&#xff0c;用于记录…

【机器学习】Lesson3 - 逻辑回归(LR)二分类

目录 背景 一、适用数据集 1. 数据集选择 1.1 领域 1.2 数据集维度 1.3 记录行&#xff08;样本数量&#xff09; 2. 本文数据集介绍 3. 数据集下载 注意 二、逻辑回归的基本原理 1. 目的 2. Sigmoid 函数 3. 类别划分 4. 召回率 三、代码 1. 导入所需包&数…

kubernetes——part2-3 使用RKE构建企业生产级Kubernetes集群

使用RKE构建企业生产级Kubernetes集群 一、RKE工具介绍 RKE是一款经过CNCF认证的开源Kubernetes发行版&#xff0c;可以在Docker容器内运行。 它通过删除大部分主机依赖项&#xff0c;并为部署、升级和回滚提供一个稳定的路径&#xff0c;从而解决了Kubernetes最常见的安装复杂…

重学SpringBoot3-Spring WebFlux之HttpHandler和HttpServer

更多SpringBoot3内容请关注我的专栏&#xff1a;《SpringBoot3》 期待您的点赞&#x1f44d;收藏⭐评论✍ 重学SpringBoot3-Spring WebFlux之HttpHandler和HttpServer 1. 什么是响应式编程&#xff1f;2. Project Reactor 概述3. HttpHandler概述3.1 HttpHandler是什么3.2 Http…

3D Gaussian Splatting代码详解(三):模型构建,实现3D 高斯椭球体的克隆和分裂

3 模型构建 3.4 根据梯度对3D gaussian 进行增加或删减 &#xff08;1&#xff09; 对3D高斯分布进行密集化和修剪的操作 def densify_and_prune(self, max_grad, min_opacity, extent, max_screen_size):"""对3D高斯分布进行密集化和修剪的操作:param max_g…

无人机协同控制技术详解!

一、算法概述 无人机协同控制技术算法是指通过综合运用通信、控制、优化等多学科知识&#xff0c;实现对多个无人机的协同控制和任务规划。这些算法通常基于各种数学模型和控制理论&#xff0c;如线性代数、微分方程、最优控制等&#xff0c;旨在确保无人机能够相互协作&#…

【热门主题】000013 C++游戏开发全攻略

前言&#xff1a;哈喽&#xff0c;大家好&#xff0c;今天给大家分享一篇文章&#xff01;并提供具体代码帮助大家深入理解&#xff0c;彻底掌握&#xff01;创作不易&#xff0c;如果能帮助到大家或者给大家一些灵感和启发&#xff0c;欢迎收藏关注哦 &#x1f495; 目录 【热…

QT中的item views与Item widgets控件的用法总结

0、前言 在一般进行数据表格展示的时候&#xff0c;大多时候要用到表格、列表或者树形结构。 Qt中常见的控件显示有两大类&#xff1a; Item View (list View、Tree View、Table View、Column View和Undo View&#xff09;Item widget&#xff08;List Widget、Tree Widget和…

ssm+vue645基于web的电影购票系统设计与实现

博主介绍&#xff1a;专注于Java&#xff08;springboot ssm 等开发框架&#xff09; vue .net php phython node.js uniapp 微信小程序 等诸多技术领域和毕业项目实战、企业信息化系统建设&#xff0c;从业十五余年开发设计教学工作 ☆☆☆ 精彩专栏推荐订阅☆☆☆☆☆不…

Spark RDD

概念 RDD是一种抽象&#xff0c;是Spark对于分布式数据集的抽象&#xff0c;它用于囊括所有内存中和磁盘中的分布式数据实体 RDD 与 数组对比 对比项数组RDD概念类型数据结构实体数据模型抽象数据跨度单机进程内跨进程、跨计算节点数据构成数组元素数据分片(Partitions)数据…

java-数据结构

一.链表 单向链表 /单向链表 public class SinglyLinkedList implements Iterable<Integer> {//头节点private Node head null;//头指针//节点类private static class Node{int value;//值Node next;//下一个节点的指针public Node(int value, Node next) {this.val…

pycharm与anaconda下的pyside6的安装记录

一、打开anaconda虚拟环境的命令行窗口&#xff0c;pip install&#xff0c;加入清华源&#xff1a; pip install PySide6 -i https://pypi.tuna.tsinghua.edu.cn/simple 二、打开pycharm&#xff0c;在文件--设置--工具--外部工具中配置一下三项&#xff1a; 1、 QtDesigner…

成本累计曲线:项目预算的秘密武器

在项目管理的过程中&#xff0c;成本控制是影响项目成败的关键因素之一&#xff0c;而其中“成本累计曲线”就像是一位财务导航员&#xff0c;为项目的成本控制和进度监控提供了极大的帮助。那么&#xff0c;什么是成本累计曲线&#xff1f;它包含哪些步骤&#xff1f;如何应用…

[0152].第3节:IDEA中工程与模块

我的后端学习大纲 IDEA大纲 1、Project和Module的概念&#xff1a; 2、Module操作&#xff1a; 2.1.创建Module: 2.2.删除Module&#xff1a; 2.3.导入Module&#xff1a; 1.导入外来模块的代码&#xff1a; 查看Project Structure&#xff0c;选择import module&#xff1a…

【Linux网络】UdpSocket

目录 套接字 socket编程 源IP地址和目的IP地址 端口号 网络字节序 socket常用API socket结构 UDP UDP协议&#xff08;用户数据报协议&#xff09; 创建套接字 绑定 通信 udp_echo_server:简单的回显服务器和客户端代码 dict_server:简单的英译汉的网络字典 chat_…

双11猫咪好物盛典开启,线上抢购不停 购物清单新鲜出炉

双十一购物狂欢节终于到了&#xff01;铲屎官们想好要给猫咪添置什么好东西了吗&#xff1f;还不知道怎么选的看过来啦~这里整理了一份双十一购物清单&#xff0c;快看看有没有你需要的吧&#xff01; 双十一养猫必购1&#xff1a;CEWEY自动猫砂盆 CEWEY自动猫砂盆真的是我最爱…