信息与熵,你想知道的都在这里了

ℹ️ 本文参考自 [d2l] Information Theory

此外,本文所提到的 log ⁡ ( ⋅ ) \log(\cdot) log() 如无特殊说明均指 log ⁡ 2 ( ⋅ ) \log_2(\cdot) log2()

目录

  • 一、自信息(Self-information)
  • 二、熵(Entropy)
    • 2.1 联合熵(Joint Entropy)
    • 2.2 条件熵(Conditional Entropy)
    • 2.3 互信息(Mutual Information)
    • 2.4 点互信息(Pointwise Mutual Information)
  • 三、相对熵(KL散度)
  • 四、交叉熵(Cross-Entropy)
    • 4.1 二元交叉熵(Binary Cross-Entropy)

一、自信息(Self-information)

先来看一个例子。掷一个质地均匀的骰子,会有 6 6 6 种可能的结果,且每种结果发生的概率均为 1 / 6 1/6 1/6。现在:

  • 设事件 X = { 点数不大于 6 } X=\{\text{点数不大于}6\} X={点数不大于6},则显然 P ( X ) = 1 \mathbb{P}(X)=1 P(X)=1;此外,这句话是废话,它并没有告诉我们任何信息,因为掷一个骰子得到的点数肯定不会超过 6 6 6
  • 设事件 X = { 点数不大于 5 } X=\{\text{点数不大于}5\} X={点数不大于5},则显然 P ( X ) = 5 / 6 \mathbb{P}(X)=5/6 P(X)=5/6;此外,这句话包含了一些信息,但并不多,因为我们差不多能够猜到结果;
  • 设事件 X = { 点数正好等于 2 } X=\{\text{点数正好等于}2\} X={点数正好等于2},则显然 P ( X ) = 1 / 6 \mathbb{P}(X)=1/6 P(X)=1/6;此外,这句话的信息量要比上面那句话更大,因为 { 点数正好等于 2 } \{\text{点数正好等于}2\} {点数正好等于2} 包含了 { 点数不大于 5 } \{\text{点数不大于}5\} {点数不大于5} 的信息在里面。

从这个例子可以看出,一个事件 X X X 所包含的信息量和它发生的概率有关系。概率越小信息量越大,概率越大信息量越少

设事件 X X X 所包含的信息量为 I ( X ) I(X) I(X),其发生的概率为 p ≜ P ( X ) p\triangleq \mathbb{P}(X) pP(X),那么我们如何寻找 I ( X ) I(X) I(X) p p p 之间的关系呢?

首先,我们有以下常识:

  • 观测一个几乎确定的事件得到的信息量几乎 0 0 0
  • 共同观测两个随机变量得到的信息量不超过分别观测两个随机变量得到的信息量的,且该不等式取等当且仅当两个随机变量相互独立

设事件 X = { A 与 B 同时发生,其中 A 、 B 相互独立 } X=\{A与B同时发生,其中A、B相互独立\} X={AB同时发生,其中AB相互独立},则显然 P ( X ) = P ( A ) P ( B ) \mathbb{P}(X)=\mathbb{P}(A)\mathbb{P}(B) P(X)=P(A)P(B),而根据上述常识,又有 I ( X ) = I ( A ) + I ( B ) I(X)=I(A)+I(B) I(X)=I(A)+I(B)。不妨设 I ( ∗ ) = f ( P ( ∗ ) ) I(*)=f(\mathbb{P}(*)) I()=f(P()),则

f ( P ( A ) ⋅ P ( B ) ) = f ( P ( X ) ) = I ( X ) = I ( A ) + I ( B ) = f ( P ( A ) ) + f ( P ( B ) ) f(\mathbb{P}(A)\cdot \mathbb{P}(B))=f(\mathbb{P}(X))=I(X)=I(A)+I(B)=f(\mathbb{P}(A))+f(\mathbb{P}(B)) f(P(A)P(B))=f(P(X))=I(X)=I(A)+I(B)=f(P(A))+f(P(B))

不难看出 log ⁡ ( ⋅ ) \log(\cdot) log() 能够满足这一要求。但考虑到 log ⁡ x \log x logx ( 0 , 1 ] (0,1] (0,1] 上是非正的且单调递增,所以我们一般采用 − log ⁡ ( ⋅ ) -\log(\cdot) log() 来衡量一个事件的信息量。

综合以上,设事件 X X X 发生的概率为 p p p,则其信息量(又称自信息)可以这样计算:

I ( X ) = − log ⁡ p (1) \textcolor{red}{I(X)=-\log p\tag{1}} I(X)=logp(1)


  • ( 1 ) (1) (1) 式中的 log ⁡ \log log 2 2 2 为底时,自信息的单位是 bit \text{bit} bit
  • ( 1 ) (1) (1) 式中的 log ⁡ \log log e e e 为底时,自信息的单位是 nat \text{nat} nat
  • ( 1 ) (1) (1) 式中的 log ⁡ \log log 10 10 10 为底时,自信息的单位是 hart \text{hart} hart

还可以得到:

1 nat = log ⁡ 2 e bit ≈ 1.443 bit , 1 hart = log ⁡ 2 10 bit ≈ 3.322 bit 1\;\text{nat}=\log_2 e\;\text{bit}\approx 1.443 \;\text{bit},\quad 1\;\text{hart}=\log_2 10\;\text{bit}\approx 3.322 \;\text{bit} 1nat=log2ebit1.443bit,1hart=log210bit3.322bit

我们知道,对于任何长度为 n n n 的二进制序列,它包含 n n n 比特的信息。例如,对于序列 0010 0010 0010,它出现的概率是 1 / 2 4 1/2^4 1/24,因此

I ( “ 0010 ” ) = − log ⁡ 1 2 4 = 4 bits I(\text{“\,0010\,”})=-\log\frac{1}{2^4}=4\;\text{bits} I(0010)=log241=4bits

二、熵(Entropy)

随机变量 X X X 服从分布 D \mathcal{D} D,则 X X X 的熵定义为其信息量的期望:

H ( X ) = E X ∼ D [ I ( X ) ] (2) \textcolor{red}{H(X)=\mathbb{E}_{X\sim\mathcal{D}}[I(X)]}\tag{2} H(X)=EXD[I(X)](2)

X X X 是离散分布,则

H ( X ) = − E X ∼ D [ log ⁡ p i ] = − ∑ i p i log ⁡ p i H(X)=-\mathbb{E}_{X\sim\mathcal{D}}[\log p_i]=-\sum_ip_i\log p_i H(X)=EXD[logpi]=ipilogpi

X X X 是连续分布,则

H ( X ) = − E X ∼ D [ log ⁡ p ( x ) ] = − ∫ p ( x ) log ⁡ p ( x ) d x H(X)=-\mathbb{E}_{X\sim\mathcal{D}}[\log p(x)]=-\int p(x)\log p(x)\text{d}x H(X)=EXD[logp(x)]=p(x)logp(x)dx

在离散情况下,设 X X X 只取 k k k 个值,则有: 0 ≤ H ( X ) ≤ log ⁡ k 0\leq H(X)\leq \log k 0H(X)logk

📌 与信息量不同的是,这里的 X X X 是随机变量而不是事件
📌 把事件看成一个点,则信息量可以看成一个点所产生的的信息,而信息熵则代表一系列点所产生的信息的均量
📌 接下来的章节中我们都将只讨论离散情形,连续情形下的公式可类比推理

2.1 联合熵(Joint Entropy)

我们已经知道如何计算 X X X 的信息熵了,那么如何计算 ( X , Y ) (X,Y) (X,Y) 的信息熵呢?

( X , Y ) ∼ D (X,Y)\sim\mathcal{D} (X,Y)D,联合概率分布为 p i j ≜ P ( X = x i , Y = y j ) p_{ij}\triangleq \mathbb{P}(X=x_i,Y=y_j) pijP(X=xi,Y=yj),再记 p i = P ( X = x i ) , p j = P ( Y = y j ) p_i=\mathbb{P}(X=x_i),\,p_j=\mathbb{P}(Y=y_j) pi=P(X=xi),pj=P(Y=yj),依照信息熵的定义类似可得

H ( X , Y ) = − ∑ i j p i j log ⁡ p i j (3) \textcolor{red}{H(X,Y)=-\sum_{ij}p_{ij}\log p_{ij}}\tag{3} H(X,Y)=ijpijlogpij(3)

如果 X = Y X=Y X=Y,则 H ( X , Y ) = H ( X ) = H ( Y ) H(X,Y)=H(X)=H(Y) H(X,Y)=H(X)=H(Y);如果 X X X Y Y Y 相互独立,则 p i j = p i ⋅ p j p_{ij}=p_i\cdot p_j pij=pipj,进而

H ( X , Y ) = − ∑ i j ( p i ⋅ p j ) ( log ⁡ p i + log ⁡ p j ) = − ∑ j p j ∑ i p i log ⁡ p i − ∑ i p i ∑ j p j log ⁡ p j = H ( X ) + H ( Y ) H(X,Y)=-\sum_{ij}(p_i\cdot p_j)(\log p_i+\log p_j)=-\sum_j p_j\sum_i p_i\log p_i-\sum_ip_i\sum_jp_j\log p_j=H(X)+H(Y) H(X,Y)=ij(pipj)(logpi+logpj)=jpjipilogpiipijpjlogpj=H(X)+H(Y)

此外,总有以下不等式成立:

H ( X ) , H ( Y ) ≤ H ( X , Y ) ≤ H ( X ) + H ( Y ) H(X),H(Y)\leq H(X,Y)\leq H(X)+H(Y) H(X),H(Y)H(X,Y)H(X)+H(Y)

2.2 条件熵(Conditional Entropy)

条件熵 H ( Y ∣ X ) H(Y|X) H(YX) 表示在已知随机变量 X X X 的情况下随机变量 Y Y Y 的不确定性,定义为 X X X 给定条件下 Y Y Y 的条件概率分布的熵对 X X X 的数学期望:

H ( Y ∣ X ) = ∑ i p i H ( Y ∣ X = x i ) = ∑ i p i ( − ∑ j p j ∣ i log ⁡ p j ∣ i ) = − ∑ i j p i j log ⁡ p j ∣ i (4) H(Y|X)=\sum_i p_iH(Y|X=x_i)=\sum_i p_i \left( -\sum_j p_{j|i}\log p_{j|i}\right)=-\sum_{ij}p_{ij}\log p_{j|i}\tag{4} H(YX)=ipiH(YX=xi)=ipi(jpjilogpji)=ijpijlogpji(4)

利用 p j ∣ i = p i j / p i p_{j|i}=p_{ij}/p_i pji=pij/pi 可得

H ( Y ∣ X ) = H ( X , Y ) − H ( X ) H(Y|X)=H(X,Y)-H(X) H(YX)=H(X,Y)H(X)

从上式可以看出, H ( Y ∣ X ) H(Y|X) H(YX) 实际上代表了包含在 Y Y Y 但不包含在 X X X 中的信息(类似于 P ( B \ A ) = P ( A ∪ B ) − P ( A ) \mathbb{P}(B\backslash A)=\mathbb{P}(A\cup B)-\mathbb{P}(A) P(B\A)=P(AB)P(A))。

2.3 互信息(Mutual Information)

给定随机变量 ( X , Y ) (X,Y) (X,Y),我们已经知道了 X X X 的信息可以用 H ( X ) H(X) H(X) 来表示; ( X , Y ) (X,Y) (X,Y) 总共的信息可以用 H ( X , Y ) H(X,Y) H(X,Y) 来表示;包含在 Y Y Y 但不包含在 X X X 中的信息可以用 H ( Y ∣ X ) H(Y|X) H(YX) 来表示。那我们该用什么来衡量 X X X Y Y Y 都包含的信息呢?

答案是互信息,其定义如下(可以理解为集合 X X X Y Y Y 的交集):

I ( X , Y ) = H ( X , Y ) − H ( Y ∣ X ) − H ( X ∣ Y ) (5) \textcolor{red}{I(X,Y)=H(X,Y)-H(Y|X)-H(X|Y)}\tag{5} I(X,Y)=H(X,Y)H(YX)H(XY)(5)

熵、联合熵、条件熵、互信息之间的关系如下:

从上图还可以得到:

I ( X , Y ) = H ( X ) − H ( X ∣ Y ) I ( X , Y ) = H ( Y ) − H ( Y ∣ X ) I ( X , Y ) = H ( X ) + H ( Y ) − H ( X , Y ) \begin{aligned} I(X,Y)&=H(X)-H(X|Y) \\ I(X,Y)&=H(Y)-H(Y|X) \\ I(X,Y)&=H(X)+H(Y)-H(X,Y) \end{aligned} I(X,Y)I(X,Y)I(X,Y)=H(X)H(XY)=H(Y)H(YX)=H(X)+H(Y)H(X,Y)

我们将 ( 5 ) (5) (5) 式展开得到

I ( X , Y ) = − ∑ i j p i j log ⁡ p i j + ∑ i j p i j log ⁡ p j ∣ i + ∑ i j p i j log ⁡ p i ∣ j = ∑ i j p i j ( log ⁡ p j ∣ i + log ⁡ p i ∣ j − log ⁡ p i j ) = ∑ i j p i j log ⁡ p i j p i ⋅ p j = E ( X , Y ) ∼ D [ log ⁡ p i j p i ⋅ p j ] \begin{aligned} I(X,Y)&=-\sum_{ij}p_{ij}\log p_{ij}+\sum_{ij}p_{ij}\log p_{j|i}+\sum_{ij}p_{ij}\log p_{i|j} \\ &=\sum_{ij}p_{ij}(\log p_{j|i}+\log p_{i|j}-\log p_{ij}) \\ &=\sum_{ij} p_{ij} \log \frac{p_{ij}}{p_i\cdot p_j} \\ &=\mathbb{E}_{(X,Y)\sim \mathcal{D}}\left[\log \frac{p_{ij}}{p_i\cdot p_j}\right] \end{aligned} I(X,Y)=ijpijlogpij+ijpijlogpji+ijpijlogpij=ijpij(logpji+logpijlogpij)=ijpijlogpipjpij=E(X,Y)D[logpipjpij]

互信息的一些性质:

  • 对称性: I ( X , Y ) = I ( Y , X ) I(X,Y)=I(Y,X) I(X,Y)=I(Y,X)
  • 非负性: I ( X , Y ) ≥ 0 I(X,Y)\geq 0 I(X,Y)0
  • I ( X , Y ) = 0 I(X,Y)=0 I(X,Y)=0 ⇔ \;\Leftrightarrow\; X X X Y Y Y 相互独立;

2.4 点互信息(Pointwise Mutual Information)

点互信息定义为:

PMI ( x i , y j ) = log ⁡ p i j p i ⋅ p j (6) \textcolor{red}{\text{PMI}(x_i,y_j)=\log \frac{p_{ij}}{p_i\cdot p_j}} \tag{6} PMI(xi,yj)=logpipjpij(6)

结合 2.3 节,我们会发现有如下关系成立(好比信息熵是信息量的期望一样,互信息也是点互信息的期望)

I ( X , Y ) = E ( X , Y ) ∼ D [ PMI ( x i , y j ) ] I(X,Y)=\mathbb{E}_{(X,Y)\sim \mathcal{D}}\left[\text{PMI}(x_i,y_j)\right] I(X,Y)=E(X,Y)D[PMI(xi,yj)]

PMI 的值越高,表示 x i x_i xi y j y_j yj 的相关性越强。PMI 常用于 NLP 任务中计算两个单词之间的相关性,但如果语料库不足,可能会出现 p i j = 0 p_{ij}=0 pij=0 的情况,这就导致两个单词的互信息为 − ∞ -\infty ,因此需要做一个修正:

PPMI ( x i , y j ) = max ⁡ ( 0 , PMI ( x i , y j ) ) \text{PPMI}(x_i,y_j)=\max(0,\text{PMI}(x_i,y_j)) PPMI(xi,yj)=max(0,PMI(xi,yj))

上述的 PPMI 又称为正点互信息(Positive PMI)。

三、相对熵(KL散度)

相对熵(Relative Entropy)又称为KL散度(Kullback–Leibler divergence),后者是其更常用的名字。

设随机变量 X X X 服从概率分布 P P P,现在我们尝试用另外一个概率分布 Q Q Q 来估计 P P P(假设 Y ∼ Q Y\sim Q YQ)。记 p i = P ( X = x i ) , q i = P ( Y = x i ) p_i=\mathbb{P}(X=x_i),\,q_i=\mathbb{P}(Y=x_i) pi=P(X=xi),qi=P(Y=xi),则KL散度定义为

D KL ( P ∥ Q ) = E X ∼ P [ log ⁡ p i q i ] = ∑ i p i log ⁡ p i q i (7) D_{\text{KL}}(P\Vert Q)=\mathbb{E}_{X\sim P}\left[\log \frac{p_i}{q_i}\right]=\sum_ip_i\log \frac{p_i}{q_i}\tag{7} DKL(PQ)=EXP[logqipi]=ipilogqipi(7)

KL散度的一些性质:

  • 非对称性: D KL ( P ∥ Q ) ≠ D KL ( Q ∥ P ) D_{\text{KL}}(P\Vert Q)\neq D_{\text{KL}}(Q\Vert P) DKL(PQ)=DKL(QP)
  • 非负性: D KL ( P ∥ Q ) ≥ 0 D_{\text{KL}}(P\Vert Q)\geq 0 DKL(PQ)0,等式成立当且仅当 P = Q P=Q P=Q
  • 若存在 x i x_i xi 使得 p i > 0 , q i = 0 p_i>0,\,q_i=0 pi>0,qi=0,则 D KL ( P ∥ Q ) = ∞ D_{\text{KL}}(P\Vert Q) =\infty DKL(PQ)=

KL散度被用来衡量两个概率分布之间的差异。如果两个分布完全相等,则KL散度为 0 0 0。因此,KL散度可以用作多分类任务的损失函数。

📌 由于KL散度不满足对称性,因此它不是严格意义上的 “距离”

四、交叉熵(Cross-Entropy)

我们将 ( 7 ) (7) (7) 式拆解

D KL ( P ∥ Q ) = ∑ i p i log ⁡ p i − ∑ i p i log ⁡ q i D_{\text{KL}}(P\Vert Q)=\sum_i p_i\log p_i-\sum_i p_i\log q_i DKL(PQ)=ipilogpiipilogqi

若令 CE ( P , Q ) = − ∑ i p i log ⁡ q i \text{CE}(P,Q)=-\sum_i p_i\log q_i CE(P,Q)=ipilogqi,则上式可写成

D KL ( P ∥ Q ) = CE ( P , Q ) − H ( P ) D_{\text{KL}}(P\Vert Q)=\text{CE}(P,Q)-H(P) DKL(PQ)=CE(P,Q)H(P)

CE ( P , Q ) \text{CE}(P,Q) CE(P,Q) 就是我们所说的交叉熵,其正式定义为

CE ( P , Q ) = − E X ∼ P [ log ⁡ q i ] (8) \textcolor{red}{\text{CE}(P,Q)=-\mathbb{E}_{X\sim P}[\log q_i]}\tag{8} CE(P,Q)=EXP[logqi](8)

结合KL散度的非负性,我们还可以得到 CE ( P , Q ) ≥ H ( P ) \text{CE}(P,Q)\geq H(P) CE(P,Q)H(P),该不等式又称为吉布斯不等式。

📌 通常 CE ( P , Q ) \text{CE}(P,Q) CE(P,Q) 也会写成 H ( P , Q ) H(P,Q) H(P,Q)


交叉熵计算一例:

P P P 是真实分布,而 Q Q Q 是估计分布,考虑三分类问题,对于某个样本,其真实标签和预测结果列在下表中:

类别 1类别 2类别 3
target010
prediction0.20.70.1

从上表可以看出,该样本真实情况是属于类别 2,且 p 1 = 0 , p 2 = 1 , p 3 = 0 , q 1 = 0.2 , q 2 = 0.7 , q 3 = 0.1 p_1=0,p_2=1,p_3=0,q_1=0.2,q_2=0.7,q_3=0.1 p1=0,p2=1,p3=0,q1=0.2,q2=0.7,q3=0.1

因此

CE ( P , Q ) = − ( 0 ⋅ log ⁡ 0.2 + 1 ⋅ log ⁡ 0.7 + 0 ⋅ log ⁡ 0.1 ) = − log ⁡ 0.7 ≈ 0.5146 \text{CE}(P,Q)=-(0\cdot \log 0.2+1\cdot \log 0.7+0\cdot \log 0.1)=-\log 0.7\approx 0.5146 CE(P,Q)=(0log0.2+1log0.7+0log0.1)=log0.70.5146

📶 当给定了数据集, H ( P ) H(P) H(P) 就成了一个常数,因此KL散度和交叉熵都能够用作多分类问题的损失函数。当真实分布 P P P 是 One-Hot 向量时,则有 H ( P ) = 0 H(P)=0 H(P)=0,此时交叉熵等于KL散度

4.1 二元交叉熵(Binary Cross-Entropy)

二元交叉熵(BCE)是交叉熵的一个特例

BCE ( P , Q ) = − ∑ i = 1 2 p i log ⁡ q i = − ( p 1 log ⁡ q 1 + p 2 log ⁡ q 2 ) = − ( p 1 log ⁡ q 1 + ( 1 − p 1 ) log ⁡ ( 1 − q 1 ) ) \begin{aligned} \text{BCE}(P,Q)&=-\sum_{i=1}^2p_i\log q_i \\ &=-(p_1\log q_1+p_2\log q_2) \\ &=-(p_1\log q_1+(1-p_1)\log (1-q_1))\qquad \end{aligned} BCE(P,Q)=i=12pilogqi=(p1logq1+p2logq2)=(p1logq1+(1p1)log(1q1))

BCE 可用作二分类或多标签分类的损失函数。

📌 交叉熵损失前通常接Softmax,而二元交叉熵损失前通常接Sigmoid
📌 二分类情景下,输出层既可以采用一个神经元+Sigmoid也可以采用两个神经元+Softmax,两者等价,但使用前者训练起来更快一些

BCE 还可通过 MLE 得到。给定 n n n 个样本: x 1 , x 2 , ⋯ , x n x_1,x_2,\cdots,x_n x1,x2,,xn,每个样本的标签 y i y_i yi 0 0 0 1 1 1 1 1 1 代表正类, 0 0 0 代表负类),神经网络的参数简记为 θ \theta θ。我们的目标是寻找最优的 θ \theta θ 使得 y ^ i = P θ ( y i ∣ x i ) \hat{y}_i=\mathbb{P}_{\theta}(y_i|x_i) y^i=Pθ(yixi)。设 x i x_i xi 被分类为正类的概率为 π i = P θ ( y i = 1 ∣ x i ) \pi_i=\mathbb{P}_{\theta}(y_i=1|x_i) πi=Pθ(yi=1∣xi),则对数似然函数为

ℓ ( θ ) = log ⁡ L ( θ ) = log ⁡ ∏ i = 1 n π i y i ( 1 − π i ) 1 − y i = ∑ i = 1 n y i log ⁡ π i + ( 1 − y i ) log ⁡ ( 1 − π i ) \begin{aligned} \ell(\theta)&=\log L(\theta) \\ &=\log \prod_{i=1}^n \pi_i^{y_i}(1-\pi_i)^{1-y_i} \\ &=\sum_{i=1}^ny_i\log \pi_i+(1-y_i)\log (1-\pi_i) \end{aligned} (θ)=logL(θ)=logi=1nπiyi(1πi)1yi=i=1nyilogπi+(1yi)log(1πi)

最大化 ℓ ( θ ) \ell(\theta) (θ) 等价于最小化 − ℓ ( θ ) -\ell(\theta) (θ),而后者就是二元交叉熵损失。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/54673.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

一些信息熵的含义

一些信息熵的含义 (1) 信息熵的定义:假设X是一个离散随即变量,即它的取值范围R{x1,x2...}是有限可数的。设piP{Xxi},X的熵定义为: (a) 若(a)式中,对数的底为2,则熵表示为H2(x),此…

“熵”详细学习笔记——什么是熵?有什么性质?联合熵等其他熵的作用

熵大概是统计学、信息学中最让人纠结的基本概念之一。很多的人对于熵是什么多多少少能说出一二,但是不能准确的表达出来。我们都知道熵可以用来描述含有的信息丰富程度的多少,但具体指什么呢? 在讲到熵之前,在这里我先讲一个“自…

信息熵通俗易懂的例子

转自知乎 https://www.zhihu.com/question/22178202/answer/223017546 本科学的时候是院长教的,当时他说这个东西很有用,也仔细听了没懂什么意思,现在回过头来看,还真有用。 信息熵的定义与上述这个热力学的熵,虽然不…

一文看懂信息熵的本质——谈谈自己对信息熵的理解

一、序言 初次看到信息熵的公式有很多不理解的地方,只知道信息熵如何进行计算,却不懂得公式背后的原理,我通过查阅了一些资料,加深了对信息熵的理解,现在将这些理解分享给大家。如有疑问欢迎评论,若对你有帮…

传闻中能取代90%人工作的chatGPT,不值得让软测人恐慌

ChatGPT的横空出世,在业界掀起了惊涛骇浪。很多人开始担心,自己的工作岗位是否会在不久的将来被ChatGPT等人工智能技术所取代。 软件测试与先进技术发展密切相关,基于人工智能的AI助手已经得到很多的应用机会,那么未来是否更加可期…

该来的总会来,EDG厂长宣布退役!

眼看LPL的转会期就要结束了,但是现在EDG这个传统战队还是没有太多的消息,只听说花费了50万买了一个青训的选手,而IBOY也被传出,有很大概率离开战队,最主要是厂长也退役了。 其实我们都知道厂长是LPL中年纪最大的选手了…

C语言入门这一篇就够了,厂长推荐学习

C语言入门这一篇就够了,⭐厂长推荐学习 关于作者 作者介绍 🍓 博客主页:作者主页 🍓 简介:JAVA领域优质创作者🥇、一名在校大三学生🎓、在校期间参加各种省赛、国赛,斩获一系列荣誉…

2021年危险化学品生产单位安全生产管理人员最新解析及危险化学品生产单位安全生产管理人员证考试

题库来源:安全生产模拟考试一点通公众号小程序 安全生产模拟考试一点通:危险化学品生产单位安全生产管理人员最新解析参考答案及危险化学品生产单位安全生产管理人员考试试题解析是安全生产模拟考试一点通题库老师及危险化学品生产单位安全生产管理人员…

添加小度在家显示无法连接服务器,小度在家突然连不上网了

有个小伙伴说:‘家里有一台小度在家智能音箱,用了大概一年多了,型号是小度最开始那一款智能音箱,价格不到百十块,使用期间也没啥问题,但是最近想再用的时候,发现一直连不上网了,这要…

在与 SQL Server 建立连接时出现与网络相关的或特定于实例的错误。未找到或无法访问服务器

今早开机发现,打开SQL Server 2008 的 SQL Server Management Studio,输入sa的密码发现,无法登陆数据库?提示以下错误: “在与 SQL Server 建立连接时出现与网络相关的或特定于实例的错误。未找到或无法访问服务器。请验证实例名…

pycharm连接远程mysql_【已解决】用PyCharm的MongoDB插件连接远程MongoDB数据库

折腾: 后,继续去试试,用之前可以正常连接本地的mongo的PyCharm的mongodb插件,去连接远程的mongo数据库 PyCharm中mongo插件中测试连接,失败: 再去测试: 然后在Mongo shell options中的arguments…

37 | 个人成长:学习安全,哪些资源我必须要知道?

安全涉及的知识面非常广,更新速度也很快,前辈们很难有足够的时间和精力来言传身教。这个时候就需要我们具备良好的自学能力,通过持续的学习来掌握新的知识,应对新的变化和挑战。 优质的学习资源是自学的重要基础。今天&#xff0…

Java连接MySQL数据库——含步骤和代码

原文地址为: Java连接MySQL数据库——含步骤和代码 工具:eclipse MySQL5.6 MySQL连接驱动:mysql-connector-java-5.1.27.jar 加载驱动: 1. 在工程目录中创建lib文件夹,将下载好的JDBC放到该文件夹下,如下…

2022广西最新八大员之(安全员)模拟试题题库及答案

百分百题库提供建筑施工八大员之安全员考试试题、建筑施工八大员考试预测题、八大员考试真题、安全员证考试题库等,提供在线做题刷题,在线模拟考试,助你考试轻松过关。 1.安全生产领导小组由总承包企业,专业承包企业和劳务分包企业项目经理、技术负责人和…

2023最新Python国内镜像源,亲测可用

1、镜像源 pip包管理工具可以下载第三方库到本地使用,第三方库的来源地址称之为镜像源,镜像源中存放了大量的开源库供我们下载使用。pip的默认镜像源地址在国外,下载很慢,本文收集了当前国内常用的镜像源,速率由快到慢…

Red Hat下载ISO镜像的方法

目录 一、Red Hat介绍 二、进入Red Hat官方网站 三、步骤 一、Red Hat介绍 Red Hat 是一家全球领先的开源技术解决方案提供商,总部位于美国北卡罗来纳州罗利。该公司成立于1993年,其主要产品是 Red Hat Enterprise Linux (RHEL) 操作系统。Red Hat 还…

seata搭建 1.4.2

1.下载源码 下载服务器端 https://github.com/seata/seata/releases 找到1.4.2的zip下载 2.修改配置文件 解压后需要修改config文件 路径\seata\seata-server-1.4.2\conf 针对自己项目所使用的服务注册和配置文件的中间件决定使用哪一个(当前举例nacos&#x…

已解决——“搜狗输入法如何进行候选页翻页”

搜狗输入法候选翻页 打开搜狗输入法后(不同版本可能页面会有差异): 点击鼠标右键选择更多设置。 选择属性设置,点击按键栏,找到候选键翻页。 效果简述(以逗号句号为例): 打字一…

搜狗拼音带来的俩个烦人的弹窗解决方法

文章目录 1、搜狐的新闻2、提示安装搜狗浏览器清理垃圾解决办法,按ctrl alt 就会关闭了。 1、搜狐的新闻 进入你安装的搜狗拼音的目录下,进入数字的文件夹,把SohuNews 这个选中它,shiftdelete,将它彻底删除。直接del…

和府捞面跨界合作《脱口秀小会》,探索娱乐文化营销

上海2021年8月27日 /美通社/ -- 8月10日晚,新一季《脱口秀大会》正式开播,李诞、杨笠、王建国等知名脱口秀演员及一众新星齐亮相,邀请了来自不同行业、从事不同职业、拥有广泛背景的跨界选手加入,通过跨界选手对日常生活内容的讲述…