损失函数,基于概率分布度量的损失函数,信息量,信息熵的作用

目录

损失函数中为什么要用Log:概率损失函数-乘法转加法-便于求偏导

信息量,信息熵的作用

信息的作用是消除不确定性:信息量是0,事件确定

 回答只是Y,N,因此对数底数为2​编辑

 一句话描述的事件发生的概率越低,那么它含有的信息量就越大

系统内所有事件发生时提供的信息量与它发生概率的乘积进行累加​编辑

损失函数

损失函数的概念

损失函数的作用

机器学习中常用的损失函数

基于距离度量的损失函数

均方误差损失函数(MSE)

L2损失函数

L1损失函数

Smooth L1损失函数

huber损失函数

0-1损失函数

铰链/折页损失函数

基于概率分布度量的损失函数

KL散度函数(相对熵)

交叉熵损失公式:带有对数的都是概率

softmax损失函数公式

Focal loss

图示理解损失函数

用二维函数图像理解单变量对损失函数的影响

用等高线图理解双变量对损失函数影响

常用的损失函数

均方差损失函数:平方放大误差引起足够重视

工作原理

实际案例

损失函数的可视化

损失函数值的3D示意图

损失函数值的2D示意图

交叉熵损失函数

交叉熵的由来

二分类问题交叉熵

多分类问题交叉熵

为什么不能使用均方差做为分类问题的损失函数?

如何选择损失函数?


损失函数中为什么要用Log:概率损失函数-乘法转加法-便于求偏导

​Loss 在使用似然函数最大化时,其形式是进行连乘,但是为了便于处理,一般会套上log,这样便可以将连乘转化为求和,求和形式更容易求偏导,应用到梯度下降中求最优解;

由于log函数是单调递增函数,因此不会改变优化结果。

极大似然估计中取对数的原因:取对数后,连乘可以转化为相加,方便求导,这是因为对数函数的求导更加简单,对数函数的导数比原函数更容易计算和优化;除此之外对数函数 ln为单调递增函数,不会改变似然函数极值点。

为什么对数可以将乘法转化为加法?
log2(x*y) = log2(y) + log2(y)

1, 2 ,3 ,4,5, 6······

和指数序列

2^(1), 2^(2) ,2^(3) ,2^(4),2^(5), 2^(6)······

,可以看出上一序列是下一序列的指数部分。那么我们如果想计算2*8 = (2^(1))*(2^(3))就可以将指数部分先加起来,即1+3=4,然后找第二个序列进行对应,就得到了2^(4)=16。这就是对数里的思想啦。

信息量,信息熵的作用

信息的作用是消除不确定性:信息量是0,事件确定

 

 回答只是Y,N,因此对数底数为2

 一句话描述的事件发生的概率越低,那么它含有的信息量就越大

因为它帮我们排除的不确定性越大

 

 

 

 

 

系统内所有事件发生时提供的信息量与它发生概率的乘积进行累加

 

信息量是指信息的有用性,是确定某一事件发生的概率与其不发生的概率之差信息量越大,说明这个事件越具有分类能力。

信息熵是指随机变量不确定性的度量,它表示了随机变量取值不同的概率分布的平均信息量。信息熵越大,说明随机变量取值的不确定性越大。

信息量和信息熵常用于信息学、信息论、模式识别等领域。它们主要用于衡量随机变量的不确定性和信息的有用性。

信息量和信息熵可用于评估分类器的效果,在决策树中用来评估特征的重要性,在信息压缩中用来评估压缩效果,在编码中用来评估编码效率等。

损失函数

监督学习中的损失函数常用来评估样本的真实值和模型预测值之间的不一致程度,一般用于模型的参数估计。受应用场景、数据集和待求解问题等因素的制约,现有监督学习算法使用的损失函数的种类和数量较多,而且每个损失函数都有各自的特征,因此要从众多损失函数中选择适合求解问题最优模型的损失函数。

损失函数的概念

在各种材料中经常看到的中英文词汇有:误差,偏差,Error,Cost,Loss,损失,代价......意思都差不多,在本文中,使用“损失函数”和“Loss Function”这两个词汇,具体的损失函数符号用  来表示,误差值用表示。

“损失”就是所有样本的“误差”的总和,亦即(为样本数):

损失误差

严谨来说,如果我们说“某个样本的损失”是不对的,只能说“某个样本的误差”,因为样本是一个一个计算的。如果我们把神经网络的参数调整到完全满足某个独立样本的输出误差为0,通常会使得其它样本的误差变得更大,这样作为误差之和的损失函数值,就会变得更大。所以,我们通常会在根据某个样本的误差调整权重后,计算一下整体样本的损失函数值,来判定网络是不是已经训练到了可接受的状态。

损失函数的作用

损失函数的作用,就是计算神经网络每次迭代的前向计算结果与真实值的差距,从而指导下一步的训练向正确的方向进行。

如何使用损失函数呢?具体步骤:

  1. 用随机值初始化前向计算公式的参数;

  2. 代入样本,计算输出的预测值;

  3. 用损失函数计算预测值和标签值(真实值)的误差;

  4. 根据损失函数的导数,沿梯度最小方向将误差回传,修正前向计算公式中的各个权重值

  5. goto 步骤2,直到损失函数值达到一个满意的值就停止迭代。

机器学习中常用的损失函数

本文依据损失函数度量方式的不同,将主要损失函数分为

  • 基于距离度量的损失函数
  • 基于概率分布度量的损失函数。

基于距离度量的损失函数

基于距离度量的损失函数通常将输入数据映射到基于距离度量的特征空间上,如欧氏空间、汉明空间等,将映射后的样本看作空间上的点,采用合适的损失函数度量特征空间上样本真实值和模型预测值之间的距离。特征空间上两个点的距离越小,模型的预测性能越好。

图片

均方误差损失函数(MSE)

图片

在回归问题中,均方误差损失函数用于度量样本点到回归曲线的距离,通过最小化平方损失使样本点可以更好地拟合回归曲线。均方误差损失函数(MSE)的值越小,表示预测模型描述的样本数据具有越好的精确度。

由于无参数、计算成本低和具有明确物理意义等优点,MSE已成为一种优秀的距离度量方法。尽管MSE在图像和语音处理方面表现较弱,但它仍是评价信号质量的标准,在回归问题中,MSE常被作为模型的经验损失或算法的性能指标。

代码实现:

import numpy as np
# 自定义实现
def MSELoss(x:list,y:list):"""x:list,代表模型预测的一组数据y:list,代表真实样本对应的一组数据"""assert len(x)==len(y)x=np.array(x)y=np.array(y)loss=np.sum(np.square(x - y)) / len(x)return loss#计算过程举例
x=[1,2]
y=[0,1]
loss=((1-0)**2 + (2-1)**2)÷2=(1+1)÷2=1

L2损失函数

图片

L2损失又被称为欧氏距离,是一种常用的距离度量方法,通常用于度量数据点之间的相似度。由于L2损失具有凸性和可微性,且在独立、同分布的高斯噪声情况下,它能提供最大似然估计,使得它成为回归问题、模式识别、图像处理中最常使用的损失函数。

代码实现:

import numpy as np
# 自定义实现
def L2Loss(x:list,y:list):"""x:list,代表模型预测的一组数据y:list,代表真实样本对应的一组数据"""assert len(x)==len(y)x=np.array(x)y=np.array(y)loss=np.sqrt(np.sum(np.square(x - y)) / len(x))return loss

L1损失函数

图片

L1损失又称为曼哈顿距离或绝对值损失函数,表示残差的绝对值之和。L1损失函数对离群点有很好的鲁棒性,但它在残差为零处却不可导。另一个缺点是更新的梯度始终相同,也就是说,即使很小的损失值,梯度也很大,这样不利于模型的收敛。针对它的收敛问题,一般的解决办法是在优化算法中使用变化的学习率,在损失接近最小值时降低学习率。

代码实现:

import numpy as np
# 自定义实现
def L1Loss(x:list,y:list):"""x:list,代表模型预测的一组数据y:list,代表真实样本对应的一组数据"""assert len(x)==len(y)x=np.array(x)y=np.array(y)loss=np.sum(np.abs(x - y)) / len(x)return loss

Smooth L1损失函数

图片

Smooth L1损失是由Girshick R在Fast R-CNN中提出的,主要用在目标检测中防止梯度爆炸

代码实现:

# 自定义实现
def Smooth_L1(x,y):assert len(x)==len(y)loss=0for i_x,i_y in zip(x,y):tmp = abs(i_y-i_x)if tmp<1:loss+=0.5*(tmp**2)else:loss+=tmp-0.5return loss

huber损失函数

图片

huber损失是平方损失和绝对损失的综合,它克服了平方损失和绝对损失的缺点,不仅使损失函数具有连续的导数,而且利用MSE梯度随误差减小的特性,可取得更精确的最小值。尽管huber损失对异常点具有更好的鲁棒性,但是,它不仅引入了额外的参数,而且选择合适的参数比较困难,这也增加了训练和调试的工作量。

代码实现:

delta=1.0  # 先定义超参数
# 自定义实现
def huber_loss(x,y):assert len(x)==len(y)loss=0for i_x,i_y in zip(x,y):tmp = abs(i_y-i_x)if tmp<=delta:loss+=0.5*(tmp**2)else:loss+=tmp*delta-0.5*delta**2return loss

0-1损失函数

图片

0-1损失函数相等这个条件太过严格,可以放宽条件,即满足时认为相等:

图片

其中为参数,在感知机算法中。

尽管0-1损失函数存在误分类的情况,但是,当所有样本完全远离分隔线时,0-1损失函数可能是最好的选择,也就是说,0-1损失函数在对称或均匀噪声 的数据集上具有较好的鲁棒性。

铰链/折页损失函数

铰链损失(hinge loss)也被称为合页损失或折页损失,它最初用于求解最大间隔的二分类问题。铰链损失函数是一个分段连续函数,当 和的符号相同时,预测结果正确;当和的符号相反时,铰链损失随着的增大线性增大。铰链损失函数最著名的应用是作为支持向量机(support vector machine,SVM)的目标函数,其性质决定了SVM具有稀疏性,也就是说,分类正确但概率不足 1 和分类错误的样本被识别为支持向量,用于划分决策边界,其余分类完全正确的样本没有参与模型求解。

图片

基于概率分布度量的损失函数

基于概率分布度量的损失函数是将样本间的相似性转化为随机事件出现的可能性,即通过度量样本的真实分布与它估计的分布之间的距离,判断两者的相似度,一般用于涉及概率分布或预测类别出现的概率的应用问题中,在分类问题中尤为常用。

图片

KL散度函数(相对熵)

图片

公式中代表真实值,代表预测值。

KL散度( Kullback-Leibler divergence)也被称为相对熵,是一种非对称度量方法,常用于度量两个概率分布之间的距离。KL散度也可以衡量两个随机分布之间的距离,两个随机分布的相似度越高的,它们的KL散度越小,当两个随机分布的差别增大时,它们的KL散度也会增大,因此KL散度可以用于比较文本标签或图像的相似性。

基于KL散度的演化损失函数有JS散度函数。JS散度也称JS距离,用于衡量两个概率分布之间的相似度,它是基于KL散度的一种变形,消除了KL散度非对称的问题,与KL散度相比,它使得相似度判别更加准确。

相对熵是恒大于等于0的。当且仅当两分布相同时,相对熵等于0。

代码实现:

# 自定义实现
def kl_loss(y_true:list,y_pred:list):"""y_true,y_pred,分别是两个概率分布比如:px=[0.1,0.2,0.8]py=[0.3,0.3,0.4]"""assert len(y_true)==len(y_pred)KL=0for y,fx in zip(y_true,y_pred):KL+=y*np.log(y/fx)return KL

 

交叉熵损失公式:带有对数的都是概率

图片

交叉熵是信息论中的一个概念,最初用于估算平均编码长度,引入机器学习后,用于评估当前训练得到的概率分布与真实分布的差异情况。为了使神经网络的每一层输出从线性组合转为非线性逼近,以提高模型的预测精度,在以交叉熵为损失函数的神经网络模型中一般选用tanh、sigmoid、softmax或ReLU作为激活函数。

交叉熵损失函数刻画了实际输出概率与期望输出概率之间的相似度,也就是交叉熵的值越小,两个概率分布就越接近,特别是在正负样本不均衡的分类问题中,常用交叉熵作为损失函数。目前,交叉熵损失函数是卷积神经网络中最常使用的分类损失函数,它可以有效避免梯度消散。在二分类情况下也叫做对数损失函数

代码实现:

# 自定义实现
def CrossEntropy_loss(y_true:list,y_pred:list):"""y_true,y_pred,分别是两个概率分布比如:px=[0.1,0.2,0.8]py=[0.3,0.3,0.4]"""assert len(y_true)==len(y_pred)loss=0for y,fx in zip(y_true,y_pred):loss+=-y * np.log(fx)return loss

当正负样本不均衡的时候,通常会在交叉熵损失函数类别前面加个参数:

图片

softmax损失函数公式

图片

从标准形式上看,softmax损失函数应归到对数损失的范畴,在监督学习中,由于它被广泛使用,所以单独形成一个类别。softmax损失函数本质上是逻辑回归模型在多分类任务上的一种延伸,常作为CNN模型的损失函数。softmax损失函数的本质是将一个k维的任意实数向量x映射成另一个k维的实数向量,其中,输出向量中的每个元素的取值范围都是(0,1),即softmax损失函数输出每个类别的预测概率。由于softmax损失函数具有类间可分性,被广泛用于分类、分割、人脸识别、图像自动标注和人脸验证等问题中,其特点是类间距离的优化效果非常好,但类内距离的优化效果比较差。

softmax损失函数具有类间可分性,在多分类和图像标注问题中,常用它解决特征分离问题。在基于卷积神经网络的分类问题中,一般使用softmax损失函数作为损失函数,但是softmax损失函数学习到的特征不具有足够的区分性,因此它常与对比损失或中心损失组合使用,以增强区分能力。

代码实现:

# 自定义实现
def softmax(x):x_exp = np.exp(x)x_sum = np.sum(x_exp, axis=1, keepdims=True)s = x_exp / x_sumreturn s

Focal loss

focal loss的引入主要是为了解决难易样本不均衡的问题,注意有区别于正负样本不均衡的问题。难易样本分为四个类型:

正难正易
负难负易

易分样本虽然损失很低,但是数量太多,对模型的效果提升贡献很小,模型应该重点关注那些难分样本,因此需要把置信度高的损失再降低一些。

图片

图示理解损失函数

用二维函数图像理解单变量对损失函数的影响

图片

单变量的损失函数图

用等高线图理解双变量对损失函数影响

 

图片

双变量的损失函数图

常用的损失函数

  • 均方差损失函数,主要用于回归问题。

  • 交叉熵损失函数,主要用于分类问题。

二者都是非负函数,极值在底部,用梯度下降法可以求解。

是样本数,是预测值,是样本标签值,是单个样本的误差值,是损失函数值。

均方差损失函数:平方放大误差引起足够重视

均方差(mean square error,MSE)是最直观的一个损失函数,计算预测值和真实值之间的欧氏距离。预测值和真实值越接近,两者的均方差就越小。

均方差损失函数常用语线性回归(linear regression),即函数拟合(function fitting)。

 

工作原理

想要得到预测值和真实值的差距,最朴素的想法就是求差值。对于单样本来说,求差值没有问题,但是多样本累计时,就有可能有正有负,误差求和时就会导致相互抵消,从而失去价值。所以有了绝对差值的想法,即。这看上去很简单,并且也很理想,那为什么还要引入均方差损失函数呢?

图片

因为平方放大了误差,也放大了某个样本的局部损失对全局带来的影响,即对某些偏离大的样本比较敏感,从而引起监督学习训练过程的足够重视,以便回传误差。

实际案例

假设有一组数据如图所示,我们想找到一条拟合的直线。

 

图片

平面上的样本数据

下图前三张显示了一个逐渐找到最佳拟合直线的过程。

  • 第一张,用均方差函数计算得到Loss=0.53;

  • 第二张,直线向上平移一些,误差计算Loss=0.16,比图一的误差小很多;

  • 第三张,又向上平移了一些,误差计算Loss=0.048,此后还可以继续尝试平移(改变值)或者变换角度(改变值),得到更小的损失函数值;

  • 第四张,偏离了最佳位置,误差值Loss=0.18,这种情况,算法会让尝试方向反向向下。

图片

损失函数值与直线位置的关系

第三张图损失函数值最小的情况。比较第二张和第四张图,由于均方差的损失函数值都是正值,如何判断是向上移动还是向下移动呢?

在实际的训练过程中,是没有必要计算损失函数值的,因为损失函数值会体现在反向传播的过程中。我们来看看均方差函数的导数:

 

 

图片

固定w时,b的变化造成的损失值

我们假设该拟合直线的方程是,当我们固定,把值从1到3变化时,看看损失函数值的变化如下图所示。

图片

固定b时,w的变化造成的损失值

损失函数的可视化

损失函数值的3D示意图

横坐标为w,纵坐标为b,针对每一个和一个的组合计算出一个损失函数值,用三维图的高度来表示这个损失函数值。下图中的底部并非一个平面,而是一个有些下凹的曲面,只不过曲率较小,如下图。

图片

w和b同时变化时的损失值形成的曲面

损失函数值的2D示意图

在平面地图中,我们经常会看到用等高线的方式来表示海拔高度值,下图就是上图在平面上的投影,即损失函数值的等高线图,如下图所示。

图片

损失函数的等高线图

交叉熵损失函数

交叉熵(cross entropy)是香农(Shannon)信息论中一个重要概念,主要用于度量两个概率分布之间的差异性信息。在信息论中,交叉熵是表示两个概率分布p,q的差异,其中p表示真实分布,表示预测分布,那么H(p,q)就称为交叉熵。

 

交叉熵可以在神经网络中作为损失函数,p表示真实标记的分布,q表示训练后的模型的预测标记分布,交叉熵损失函数可以衡量与p之q间的相似性。

交叉熵损失函数常用于逻辑回归(logistic regression),也就是分类(classification)任务。

交叉熵的由来

  1. 信息量

 信息量越大,情况越多越混乱-事件不可能发生

编号事件概率 信息量 
x1优秀p=0.7I=-ln(0.7)=0.36
x2及格p=0.2I=-ln(0.2)=1.61
x3不及格p=0.1I=-ln(0.1)=2.30

不难看出该同学不及格的信息量较大,相对来说“优秀”事件的信息量反而小了很多。

相对熵(KL散度)

 交叉熵

 

  • 交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。

  • 交叉熵的值越小,模型预测效果就越好

  • 交叉熵经常搭配softmax使用,将输出的结果进行处理,使其多个分类的预测值和为1,再通过交叉熵来计算损失。

二分类问题交叉熵

 

图片

二分类交叉熵损失函数图

 

多分类问题交叉熵

 

为什么不能使用均方差做为分类问题的损失函数?

回归问题通常用均方差损失函数,可以保证损失函数是个凸函数,即可以得到最优解。

分类问题如果用均方差的话,损失函数的表现不是凸函数,就很难得到最优解。而交叉熵函数可以保证区间内单调。

分类问题的最后一层网络,需要分类函数,Sigmoid或者Softmax,如果再接均方差函数的话,其求导结果复杂,运算量比较大。

用交叉熵函数的话,可以得到比较简单的计算结果,一个简单的减法就可以得到反向误差。

如何选择损失函数?

通常情况下,损失函数的选取应从以下方面考虑:

  1. 选择最能表达数据的主要特征来构建基于距离或基于概率分布度量的特征空间。

  2. 选择合理的特征归一化方法,使特征向量转换后仍能保持原来数据的核心内容。

  3. 选取合理的损失函数,在实验的基础上,依据损失不断调整模型的参数,使其尽可能实现类别区分。

  4. 合理组合不同的损失函数,发挥每个损失函数的优点,使它们能更好地度量样本间的相似性。

  5. 将数据的主要特征嵌入损失函数,提升基于特定任务的模型预测精确度

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/99675.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

隔断让你的办公室变得更加智能、环保、人性化

隔断可以在办公室中起到多种重要作用&#xff0c;使办公室更加智能、环保和人性化。以下是一些可能的方式&#xff1a; 1. 智能办公室控制系统&#xff1a;可以通过隔断集成智能办公室控制系统&#xff0c;实现办公室照明、温度和空调等设备的自动调节&#xff0c;提高能效和舒…

以 Java NIO 的角度理解 Netty

文章目录 前言Java NIO 工作原理Selector 的创建ServerSocketChannel 的创建ServerSocketChannel 注册 Selector对事件的处理总结 前言 上篇文章《Netty 入门指南》主要涵盖了 Netty 的入门知识&#xff0c;包括 Netty 的发展历程、核心功能与组件&#xff0c;并且通过实例演示…

用户信任建立:银行卡三要素API的隐私保护与数据安全

引言 在数字支付和金融领域&#xff0c;用户信任是构建稳健金融生态的关键。随着金融科技的迅速发展&#xff0c;银行卡三要素API作为一种用于身份验证和支付安全的工具&#xff0c;不仅带来了便利&#xff0c;也引发了对隐私保护和数据安全的关切。本文将探讨银行卡三要素API…

C语言编写图形界面

文章目录 环境使用库基础概念句柄 程序的入口创建窗口定义窗口类注册窗口类创建窗口 完整代码运行效果 环境 使用的是VSCode MinGW&#xff1b; 使用库 我们使用windows.h库来实现图形化界面。 头文件如下&#xff1a; #include <windows.h>windows.h是 Windows 操作…

Redis中的分布式锁及其延生的问题

前言 本文将着重介绍Redis中的分布式锁及其与出现的死锁和锁误删问题 什么是分布式锁 首先问题就是什么是分布式锁&#xff0c;分布式锁就是分布式系统中实现并发控制的一种锁机制&#xff0c;它可以保证多个节点在同一个时间只有有一个能成功竞争到系统资源&#xff08;共享…

微软Win11 Dev预览版Build23526发布

近日&#xff0c;微软Win11 Dev预览版Build23526发布&#xff0c;修复了不少问题。牛比如斯Microsoft&#xff0c;也有这么多bug&#xff0c;所以你写再多bug也不作为奇啊。 主要更新问题 [开始菜单&#xff3d; 修复了在高对比度主题下&#xff0c;打开开始菜单中的“所有应…

【LeetCode-中等题】128. 最长连续序列

题目 题解一&#xff1a;HeshSet枚举 思路&#xff1a;先对数组进行set去重&#xff0c;核心就是&#xff0c;先找出临界值&#xff08;假设以最小临界为例&#xff0c;那么这个临界值自己就是最小值&#xff0c;&#xff09;&#xff0c;以临界值不断做加1操作&#xff0c;看…

使用拦截器+Redis实现接口幂等

文章目录 使用拦截器Redis实现接口幂等1.思路分析2.具体实现2.1 创建redis工具类2.2 自定义幂等注解2.2 自定义幂等拦截器2.3 注入拦截器到容器 3.测试 使用拦截器Redis实现接口幂等 1.思路分析 接口幂等有很多种实现方式&#xff0c;拦截器/AOPRedis&#xff0c;拦截器/AOP本…

Linux —— 进程间通信(管道)

目录 一&#xff0c;进程间通信 二&#xff0c;管道 匿名管道 命名管道 一&#xff0c;进程间通信 进程间通信&#xff08;IPC&#xff0c;InterProcess Communication&#xff09;&#xff0c;即在不同进程之间进行信息的传播或交换&#xff1b;由于一般进程用户地址空间是…

JavaScript 中常用简写技巧总结

平时我们写代码时最高级的境界是自己写的东西别人看不懂&#xff01;哈哈哈&#xff01;分享一些自己常用的js简写技巧&#xff0c;长期更新&#xff0c;会着重挑选一些实用的简写技巧&#xff0c;使自己的代码更简洁优雅~ 这里只会收集一些大多数人不知道的用法&#xff0c;但…

PHP实现轻量级WEB服务器接收HTTP提交的RFID刷卡信息并回应驱动读卡器显示播报语音

本示例使用的读卡器&#xff1a;RFID网络WIFI无线TCP/UDP/HTTP可编程二次开发读卡器POE供电语音-淘宝网 (taobao.com) <?php mb_http_output(utf-8); $port88; $socket socket_create(AF_INET, SOCK_STREAM, SOL_TCP); $bool socket_bind($socket, "0.0.0.0",…

宇宙原理:黑洞基础。

宇宙原理&#xff1a;黑洞基础TOC 黑洞的数理基础&#xff1a;一个由满数组成的数盘&#xff0c;经过自然演进&#xff0c;将会逐步稀疏化、最终会向纯数方案发展&#xff1b;纯数方案虽然只有{2}、无数&#xff08;虚拟&#xff09;、{0,1,2,3}&#xff08;虚拟&#xff09;、…

如何在 Ubuntu 中安装最新的 Python 版本

动动发财的小手&#xff0c;点个赞吧&#xff01; Python 是增长最快的主要通用编程语言。其原因有很多&#xff0c;例如其可读性和灵活性、易于学习和使用、可靠性和效率。 目前使用的 Python 有两个主要版本 – 2 和 3&#xff08;Python 的现在和未来&#xff09;&#xff1…

LeetCode--HOT100题(36)

目录 题目描述&#xff1a;146. LRU 缓存&#xff08;中等&#xff09;题目接口解题思路代码 PS: 题目描述&#xff1a;146. LRU 缓存&#xff08;中等&#xff09; 请你设计并实现一个满足 LRU (最近最少使用) 缓存 约束的数据结构。 实现 LRUCache 类&#xff1a; LRUCache…

AQS源码解读

文章目录 前言一、AQS是什么&#xff1f;二、解读重点属性statehead、tail 同步变量竞争acquire 同步变量释放 总结 前言 AQS是AbstractQueuedSynchronizer的缩写&#xff0c;也是大神Doug Lea的得意之作。今天我们来进行尽量简化的分析和理解性的代码阅读。 一、AQS是什么&a…

回归预测 | MATLAB实现WOA-SVM鲸鱼算法优化支持向量机多输入单输出回归预测(多指标,多图)

回归预测 | MATLAB实现WOA-SVM鲸鱼算法优化支持向量机多输入单输出回归预测&#xff08;多指标&#xff0c;多图&#xff09; 目录 回归预测 | MATLAB实现WOA-SVM鲸鱼算法优化支持向量机多输入单输出回归预测&#xff08;多指标&#xff0c;多图&#xff09;效果一览基本介绍程…

PostgreSQL中的密码验证方法

假设您想在客户端/服务器协议中实现密码身份验证方法。 您将如何做到这一点以及可能出现的问题是什么&#xff1f; 以下是 PostgreSQL 中如何完成此操作的故事。 password 一开始&#xff0c;PostgreSQL 只有 pg_hba.conf 中现在称为“password”的方法。 这是你能想象到的最…

CloudQuery:更好地管理你的 OceanBase 数据库

前言&#xff1a;作为 OceanBase 的生态合作伙伴&#xff0c;CloudQuery&#xff08;简称“CQ”&#xff09; 最新发布的社区版 2.2.0 新增了 OceanBase 数据库&#xff0c;为企业使用 OceanBase 数据库提供全面的支持。包括连接与认证、查询与分析、数据安全与权限管理&#x…

【仿写tomcat】三、通过socket读取http请求信息

仿写tomcat 建立Socket连接获取连接信息查看HTTP信息 建立Socket连接 这里我们也是创建一个专门管理socket的类 package com.tomcatServer.socket;import java.io.*; import java.net.ServerSocket;/*** 套接字存储** author ez4sterben* date 2023/08/15*/ public class Soc…

【校招VIP】java语言考点之List和扩容

考点介绍&#xff1a; List是最基础的考点&#xff0c;但是很多同学拿不到满分。本专题从两种实现子类的比较&#xff0c;到比较复杂的数组扩容进行分析。 『java语言考点之List和扩容』相关题目及解析内容可点击文章末尾链接查看&#xff01;一、考点题目 1、以下关于集合类…