【AI算法岗面试八股面经【超全整理】——机器学习】

AI算法岗面试八股面经【超全整理】

  • 概率论
  • 信息论
  • 机器学习
  • 深度学习
  • CV
  • NLP

目录

    • 1、回归损失函数
    • 2、分类损失函数
    • 3、误差(Error)、偏差(Bias)、方差(Variance)
    • 4、PCA(Principle Component Analysis,主成分分析)
    • 5、数据不均衡
    • 6、特征选择
    • 7、LR(Logistics Regression)
    • 8、特征工程
    • 9、树模型进行特征工程的原因
    • 10、AdaBoost(Adaptive Boosting)
    • 11、GBDT(Gradient Boosting Decision Tree)
    • 12、LR和GBDT
    • 13、RF和GBDT
    • 14、线性模型、非线性模型
    • 15、感知机
    • 16、排序算法
    • 17、常用的推荐系统算法:
    • 18、实现推荐系统

1、回归损失函数

均方误差(Mean Square Error,MSE)(二次损失,L2损失,L2 Loss)
MSE是目标变量与预测值之间距离的平方和
M S E = 1 N ∑ i = 1 N ( y i − y i p ) 2 MSE=\frac {1}{N}\sum _{i=1}^{N} {(y_i-y_i^p)}^2 MSE=N1i=1N(yiyip)2

平均绝对误差(Mean Absolute Error,MAE)(L1损失,L1 Loss)
MAE是目标值与预测值之间的绝对差的总和
M A E = 1 N ∑ i = 1 N ∣ y i − y i p ∣ MAE=\frac {1}{N}\sum _{i=1}^{N} |y_i-y_i^p| MAE=N1i=1Nyiyip
MSE VS MAE

  • MSE收敛速度快,且随着误差减小,梯度也在减小,这有利于函数的收敛,即使固定学习率,函数也能较快收敛到最小值;MAE的曲线呈V字型,连续但在 y − f ( x ) = 0 y-f(x)=0 yf(x)=0处不可导,计算机求导比较难。且MAE大部分情况下梯度相等,这意味着即使对于小的损失值,其梯度也是大的,不利于函数的收敛和模型的学习。
  • 如果样本中存在离群点,MSE会给离群点赋予更高的权重,但是却是以牺牲其他正常数据点的预测效果为代价,因此会导致降低模型的整体性能;由于MAE计算的是绝对误差,没有平方项的作用,惩罚力度相同,因此MAE相对于MSE对离群点不过分敏感,拟合直线能够更好地表征正常数据的分布情况,其鲁棒性更好。

最小二乘法和MSE

  • 基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。——周志华《机器学习》
  • 最小二乘法作为损失函数:没有除以总样本数N;均方误差MSE:除以总样本数N

2、分类损失函数

二分类交叉熵损失
L = 1 N ∑ i − [ y i ⋅ log ⁡ ( p i ) + ( 1 − y i ) ⋅ log ⁡ ( 1 − p i ) ] L=\frac{1}{N}\sum _{i}-[y_i \cdot \log (p_i)+(1-y_i)\cdot \log (1-p_i)] L=N1i[yilog(pi)+(1yi)log(1pi)]
交叉熵刻画的是两个概率分布之间的距离。交叉熵越小,两个概率分布越接近。

多分类交叉熵损失
L = − 1 N ∑ i ∑ c = 1 M y i c ⋅ log ⁡ ( p i c ) L=-\frac{1}{N}\sum_{i}\sum_{c=1}^{M}y_{ic}\cdot \log (p_{ic}) L=N1ic=1Myiclog(pic)

二分类为什么用交叉熵损失而不用MSE损失
MSE无差别关注全部类别预测概率和真实概率的差;交叉熵关注的是正确类别的预测概率。

最大似然估计和二分类交叉熵
在二分类问题中,将映射函数的输出记为Y,可以使分类问题中的标签0和1,采样结果为 ( X i , Y i ) {(X_i,Y_i)} (Xi,Yi),当 Y i = 1 Y_i=1 Yi=1时似然函数为 f ( X i , θ ) f(X_i,\theta) f(Xi,θ),当 Y i = 0 Y_i=0 Yi=0时似然函数为 1 − f ( X i , θ ) 1-f(X_i,\theta) 1f(Xi,θ),此时将似然函数写成如下形式:
L θ = ∏ i f ( X i , θ ) Y i ( 1 − f ( X i , θ ) ) 1 − Y i L_\theta=\prod_{i} f{(X_i,\theta)}^{Y_i}{(1-f(X_i,\theta))^{1-Y_i}} Lθ=if(Xi,θ)Yi(1f(Xi,θ))1Yi
最大似然估计为:
θ ^ = arg ⁡ max ⁡ θ ∏ i f ( X i , θ ) Y i ( 1 − f ( X i , θ ) ) 1 − Y i \widehat{\theta}=\arg\max_{\theta} \prod_{i} f{(X_i,\theta)}^{Y_i}{(1-f(X_i,\theta))^{1-Y_i}} θ =argθmaxif(Xi,θ)Yi(1f(Xi,θ))1Yi
一般求解最大似然估计问题,都会取对数将连乘转换为连加,并且由此可以推导出二分类的交叉熵损失函数,由于 L θ ∝ log ⁡ L θ L_{\theta}\propto \log{L_{\theta}} LθlogLθ
θ ^ = arg ⁡ max ⁡ θ log ⁡ L θ = arg ⁡ max ⁡ θ ∑ i Y i log ⁡ f ( X i , θ ) + ( 1 − Y i ) log ⁡ ( 1 − f ( X i , θ ) ) = arg ⁡ max ⁡ θ ∑ i Y i log ⁡ Y i ^ + ( 1 − Y i ) log ⁡ ( 1 − Y i ^ ) \widehat{\theta}=\arg\max_{\theta}\log{L_{\theta}}=\arg\max_{\theta} \sum_{i} Y_i\log{f(X_i,\theta)}+(1-Y_i)\log{(1-f(X_i,\theta))}\\=\arg\max_{\theta} \sum_{i} Y_i\log{\hat{Y_i}}+(1-Y_i)\log{(1-\hat{Y_i})} θ =argθmaxlogLθ=argθmaxiYilogf(Xi,θ)+(1Yi)log(1f(Xi,θ))=argθmaxiYilogYi^+(1Yi)log(1Yi^)
最优化问题通常求最小值,加上负号就得到了二分类的交叉熵损失函数:
B C E L o s s = − ∑ i Y i log ⁡ Y i ^ + ( 1 − Y i ) log ⁡ ( 1 − Y i ^ ) BCELoss=-\sum_{i} Y_i\log{\hat{Y_i}}+(1-Y_i)\log{(1-\hat{Y_i})} BCELoss=iYilogYi^+(1Yi)log(1Yi^)

3、误差(Error)、偏差(Bias)、方差(Variance)

  • 误差是模型预测结果与实际值之间的差异。在模型训练过程中,目标通常是尽可能地减少这种误差
  • 偏差是模型预测的平均误差,或者说是模型对真实数据的预测值与实际值的差异的期望值。一个高偏差的模型可能会忽略数据中的某些重要细节,导致模型过于简单,这种情况我们通常称之为欠拟合;偏差表征模型对数据的拟合能力
  • 方差是模型预测值的变化范围或者说离散程度,它反映了模型对输入微小改变的敏感度。高方差可能导致模型对数据中的随机噪声过于敏感,导致模型过于复杂,我们通常称之为过拟合;方差表征数据集的变动导致的学习性能的变化,也就是泛化能力

4、PCA(Principle Component Analysis,主成分分析)

PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征,也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。

输入:数据集 X = x 1 , x 2 , x 3 , … , x n X={x_1,x_2,x_3,\dots ,x_n} X=x1,x2,x3,,xn,需要降到k维。
1、基于特征值分解协方差矩阵实现PCA

  • 去平均值(即去中心化),即每一位特征减去各自的平均值;
  • 计算协方差矩阵 1 n X X T \frac{1}{n}XX^T n1XXT
  • 特征值分解方法求协方差矩阵 1 n X X T \frac{1}{n}XX^T n1XXT的特征值与特征向量
  • 对特征值从大到小排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为行向量组成特征向量矩阵P
  • 将数据转换到k个特征向量构建的新矩阵中,即 Y = P X Y=PX Y=PX

2、基于SCD分解协方差矩阵实现PCA

  • 去平均值
  • 计算协方差矩阵
  • 通过SVD计算协方差矩阵的特征值与特征向量
  • … \dots
  • … \dots

5、数据不均衡

考虑正例很少,负例很多的解决方法:

  • 欠采样:对负例进行欠采样。一种代表性算法是将负例分为很多份,每次用其中一份和正例一起训练,最后用集成学习综合结果;
  • 过采样:对正例进行过采样。一种代表性方法是对正例进行线性插值来获得更多的正例;
  • 调整损失函数:训练时正常训练,分类时将数据不平衡问题加入到决策过程中。通过加入权值使得数量较少的正样本得到更多的关注,不至于被大量的负样本掩盖;
  • 组合/集成学习:例如正负样本比例1:100,则将负样本分为100份,正样本每次有放回采样保持与负样本数相同,然后取100次结果进行平均;
  • 数据增强:单样本增强如几何变换、颜色变换、增加噪声;多样本组合增强如Mixup、SamplePairing等,在特征空间内构造已知样本的邻域值样本;基于深度学习数据增强

6、特征选择

目标是从原始特征集中选择最相关、最有用的特征,以提高模型性能和泛化能力。常用特征选择方法:
1、过滤式
独立于学习算法,据特征的统计属性对特征评估和排序。包括相关系数、卡方检验、信息增益、互信息法等。过滤式方法计算快速、简单,适用于高维数据,但可能忽略特征之间的相互关系。

  • 方差选择:计算特征在数据中的方差来判断是否保留。特征方差低于预先设定的阈值,这个特征可能没有足够的变化,对分类回归任务可能没有太大贡献,可以被移除
  • 相关系数:用来衡量两个变量之间线性关系强度的指标。计算特征与目标变量之间的相互关系,选择与目标变量具有较高相关性的特征。
  • 卡方检验:适用于分类问题中的特征选择。计算特征与目标变量之间的卡方统计量,来衡量特征与目标之间的独立性。选择卡方值较大的特征,与目标变量更相关。
  • 互信息:衡量两个变量之间相关性的指标。计算特征与目标变量之间的互信息,选择与目标变量具有较高互信息的特征。

2、嵌入式(Embedding)
特征选择与学习算法的训练过程结合,特征选择作为学习算法的一部分。在学习算法中直接考虑特征的重要性,通过正则化、惩罚项或决策树剪枝等方式选择特征。嵌入式方法包括 L1正则化、决策树的特征重要性、正则化的线性模型等。嵌入式方法可以在模型训练过程中自
动选择特征,减少了特征选择的额外计算开销。
3、包裹式(Wrapper)
使用机器学习模型评估特征的重要性。在特征子集上进行交叉验证,选择性能最好的特征子集进行特征选择。基于树模型的方法(如决策树和随机森林)可以评估特征的重要性。树模型通过计算特征在树中的分裂次数和平均分裂增益衡量特征对模型的贡献。它直接使用最终学习算法对每个特征子集进行评估,可以更好地捕捉特征之间的相互作用。包裹式方法包括递归特征消或和遗传算法等。包裹式方法计算开销大,耗时长,适用于小规模数据和特定问题。

7、LR(Logistics Regression)

Logistics Regression 和 Linear Regression(线性回归)联系和区别

  • 逻辑回归的本质其实就是线性回归,但在最终预测的时候加了一层 sigmoid 函数。即:线性回归+sigmoid 函数=逻辑回归
  • 线性回归:做预测、拟合函数,用于回归任务;逻辑回归:做分类、预测函数。用于分类任务,二分类/多分类,是给定自变量和超参数后,得到因变量的期望,基于这个期望来处理预测分类问题
  • 线性回归:使用最小二乘法求得解析解、梯度下降法。逻辑回归:最大似然估计、梯度下降法。

8、特征工程

是利用数据领域的相关知识来创建能够使机器学习算法达到最佳性能的特征的过程。
简而言之,就是把一个原始数据转变为特征的过程,这些特征可以很好地描述这些数据,并且模型性能达到最优。
工作流程
在这里插入图片描述

9、树模型进行特征工程的原因

  • 改善模型性能:特征工程有助于提取更具预测性的特征,可以帮助模型更好地拟合数据,提升模型的预测性能。
  • 降低过拟合风险:合适的特征工程可以帮助模型更好地泛化到新的数据集上,降低过拟合的风险,提高模型的稳定性和泛化能力。
  • 减少计算复杂度:特征工程有助于减少特征空间的维度,从而减少计算复杂度,并加速模型的训练和预测过程。
  • 提高可解释性:通过合理的特征工程,可以使得模型更易于解释和理解,有助于深入理解数据特征对模型预测的影响。
  • 解决特征相关性和噪音问题:特征工程有助于发现和处理特征之间的相关性和噪音,使模型更加健壮。

10、AdaBoost(Adaptive Boosting)

算法流程:

  • 初始化训练数据的权值分布。如果有 N 个样本,则每一个训练样本最开始都被赋予相同的权值: 1 N \frac{1}{N} N1
  • 训练弱分类器。具体训练过程中,如果某个样本点没有被准确地分类,那么在构造下一个训练集中,也就是如果某一个数据在这次分错了,那么在下一次就会给它更大的权重。然后,权重更新过的样本集被用于训练下一个分类器,整个训练过程如此迭代地进行下去。
  • 将各个训练得到的弱分类器组合成强分类器。将各个训练得到的弱分类器组合成强分类器。各个弱分类器的训练过程结束后,加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的弱分类器的权重,使其在最终的分类函数中起着较小的决定作用。

11、GBDT(Gradient Boosting Decision Tree)

主要包括两个部分:Gradient Boosting 和 Decision Tree
1、Decision Tree:CART回归树
因为回归树的标签是连续的,因此基尼系数、熵这种概率评估不适合作为评估指标,所以考虑使用均方误差作为特征划分的好坏,将划分后每个节点所有样本的均方误差之和与之前没划分的节点的均方误差作差来代替基尼系数。
算法流程:

  • 选择最优切分特征j和切分点s
    R 1 ( j , s ) = { x ∣ x ( j ) ≤ s } R 2 ( j , s ) = { x ∣ x ( j ) > s } R_1(j,s)=\{x|x^{(j)}\leq s\} \quad R_2(j,s)=\{x|x^{(j)}> s\} R1(j,s)={xx(j)s}R2(j,s)={xx(j)>s}
    c m = 1 N m ∑ x i ∈ R m ( j , s ) y i x ∈ R m , m = 1 , 2 c_m = \frac{1}{N_m}\sum_{x_i \in R_m(j,s)}y_i \qquad x \in R_m,m=1,2 cm=Nm1xiRm(j,s)yixRm,m=1,2
    min ⁡ j , s [ min ⁡ c 1 ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ) 2 ] \min_{j,s}[\min_{c_1}\sum_{x_i \in R_1(j,s)}{(y_i-c_1)}^2+\sum_{x_i \in R_2(j,s)}{(y_i-c_2)}^2] j,smin[c1minxiR1(j,s)(yic1)2+xiR2(j,s)(yic2)2]

  • 用选定的对 ( j , s ) (j,s) (j,s)划分区域并决定相应的输出值

  • 继续对两个子区域调用步骤1、2直至满足停止条件

  • 将输入空间划分为M个区域, R 1 , R 2 , R 3 , … , R M R_1,R_2,R_3,\dots ,R_M R1,R2,R3,,RM,生成决策树

为什么不用CART分类树?

  • 无论是回归问题还是分类问题,GBST 需要将多个弱分类器的结果累加起来(Boosting的训练是串行的,一个接一个,每一棵树的训练都依赖于之前的残差)。
  • 每次迭代要拟合的是梯度值,是连续值所以要用回归树

2、Gradient Boosting:拟合负残差
基于残差的训练
每一个后续的模型都会去把前一个模型没有拟合好的残差重新拟合一下。用下一个弱分类器去拟合。当前残差(真实值-当前预测值),之后所有弱分类器的结果相加等于预测值。
为何Gradient Boosting可以用负梯度近似残差
当损失函数选用 MSE 时,负梯度<==>残差
假使用 MSE 做损失函数:
l ( y i , y i ) = 1 2 ( y i − y i ) 2 l(y_i,y^i)=\frac{1}{2}{(y_i-y^i)}^2 l(yi,yi)=21(yiyi)2
它的负梯度计算公式为:
− [ ∂ l ( y i , y i ) ∂ y i ] = ( y i , y i ) -[\frac{\partial l(y_i, y^i)}{\partial y^i}]=(y_i,y^i) [yil(yi,yi)]=(yi,yi)

12、LR和GBDT

1、用途不同

  • Logistics Regression是分类模型
  • GBDT即可作分类又可回归

2、损失函数不同

  • LR的Loss是交叉熵
  • GBDT采用回归拟合(将分类问题通过Softmax转换为回归问题)用当前损失去拟合实际值与前一轮模型预测值之间的残差

3、从正则的角度

  • LR采用L1和L2正则
  • GBDT采用弱分类器的个数,也就是迭代轮次T,T的大小影响着算法的复杂度

4、特征组合

  • LR是线性模型,具有很好的解释性,很容易并行化,但是学习能力有限,需要大量的特征工程
  • GBDT可以处理线性和非线性的数据,具有天然优势进行特征组合

13、RF和GBDT

  • 组成RF的树可以是分类树,也可以是回归树;而GBDT只由回归树组成
  • 集成学习:RF属于bagging思想;GBDT是boosting思想
  • 并行性:组成RF的树可以并行生产;而GBDT只能串行生成
  • 最终结果:对于最终的输出结果而言,RF采用多数投票等;而GBDT则是将所有结果累加起来
  • 数据敏感性:RF对异常值不敏感;GBDT对异常值非常敏感
  • 训练样本:RF每次迭代的样本是从全部训练集中有放回抽样形成的;而GBDT每次使用全部样本
  • 偏差-方差权衡:RF是通过减少模型方差提高性能;GBDT是通过减少模型偏差提高性能

14、线性模型、非线性模型

1、线性模型可以用曲线拟合样本,但是分类的决策边界一定是直线,例如LR。
2、看乘法式子中自变量x前的系数w,如果w只影响一个人,则为线性模型
例如: y = 1 1 + e w 0 + w 1 x 1 + w 2 x 2 y=\frac{1}{1+e^{w_0+w_1x_1+w_2x_2}} y=1+ew0+w1x1+w2x21为线性模型
如果自变量被两个及以上的参数影响,则为非线性
例如: y = 1 1 + w 3 ∗ e w 0 + w 1 x 1 + w 2 x 2 y=\frac{1}{1+w_3*e^{w_0+w_1x_1+w_2x_2}} y=1+w3ew0+w1x1+w2x21

15、感知机

f ( x ) = s i g n ( w ∗ x + b ) s i g n ( x ) = { 1 x >=0 1 x<0 f(x)=sign(w*x+b)\quad sign(x)=\begin{cases} 1& \text{x >=0}\\1& \text{x<0} \end{cases} f(x)=sign(wx+b)sign(x)={11x >=0x<0

感知机&LR
1、激活函数不同

  • 感知机使用阶跃函数(sign)
  • 逻辑回归使用sigmoid函数

2、输出类型不同

  • 感知机输出是离散的,通常用于二分类
  • 逻辑回归的输出是概率值,可以用于二分类或多分类

3、损失函数不同

  • 感知机通常使用误分类点到超平面的距离之和作为损失函数
  • 逻辑回归使用交叉熵损失函数

16、排序算法

在这里插入图片描述

在这里插入图片描述1、冒泡(交换)
比较相邻元素,如果第一个比第二个大,就交换它们
2、选择
在未排序序列中找到最小(大)元素,存放在排序序列的起始位置
3、插入
对于未排序数据,在已排序序列中从后向前扫描,找到相应位置并插入
4、快速(快速)

  • 在未排序元素中任取一个作为基准
  • 重新排列数据,比基准小的元素放在基准前,比基准大的元素,放在基准后
  • 递归地对两个子序列进行排序

5、希尔(插入)

  • 缩小增量排序
  • 先取一个小于n的整数d(通常为 n 2 \frac{n}{2} 2n)作为第一个增量,所有距离为d的元素放在同一个组中,先在组内直接插入排序,然后取第2个增量,重复操作8

6、归并

  • 把长度为n的输入序列分成两个长度为 n 2 \frac{n}{2} 2n的子序列
  • 对两个子序列分别进行归并排序
  • 将两个排序好的子序列合并成一个最终的排序序列

7、堆排序
将待排序序列构造成一个大顶堆,此时整个序列的最大值就是堆顶的根节点。将其与末尾元素进行交换,此时末尾就为最大值。然后将剩余n-1个元素重新构造成一个堆,这样会得到n个元素的次小值,如此反复执行,使能得到一个有序序列了。

17、常用的推荐系统算法:

1、协同过滤: 分析用户的兴趣和行为,利用共同行为习惯的群体有相似喜好的原则,推荐用户感兴趣的信息

  • 基于用户的协同过滤:根据用户的历史喜好分析出相似的人,然后给用户推荐其他人喜欢的物品。【人以类聚】
  • 基于物品的协同过滤:根据用户的历史喜好分析出相似的物品,然后给用户推荐同类物品。【物以群分】

2、基于内容过滤推荐:核心是衡量出两个物品的相似度
首先对物品或内容的特征作出描述,发现其相关性,然后基于用户以往的喜好记录,推荐给用户相似的物品

3、组合推荐

18、实现推荐系统

如果能将用户A的原始特征转变为一种代表用户A喜好的特征向量,将电影1的原始特征转变为一种代表电影1特性的特征向量,那么,我们计算两个向量的相似度,就可以代表用户A对电影1的喜欢程度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/334365.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

QT学习(20):QStyle类

Qt包含一组QStyle子类&#xff0c;这些子类&#xff08;QWindowsStyle&#xff0c;QMacStyle等&#xff09;模拟Qt支持的不同平台的样式&#xff0c;默认情况下&#xff0c;这些样式内置在Qt GUI模块中&#xff0c;样式也可以作为插件提供。 Qt的内置widgets使用QStyle来执行几…

美光EMMC芯片丝印型号查询 8LK17/D9PSK, OXA17/JY997

问题说明 最近在使用美光EMMC的时候&#xff0c;发现通过芯片丝印查询不到 芯片的规格说明书&#xff1b; 经过查阅资料&#xff0c;发现美光的EMMC芯片 “由于空间限制&#xff0c;FBGA 封装组件具有与部件号不同的缩写部件标记”&#xff0c;需要通过官网查询丝印的FBGA cod…

如何用分立器件设计一个过流保护电路

过流保护电路是指当后级负载电流过大或者发生短路时&#xff0c;自动切断电源与后级负载&#xff0c;从而防止大电流损害电源电路&#xff0c;过流保护又叫OCP。 常见的过流保护电路有保险丝过流保护&#xff0c;集成的过流保护芯片&#xff0c;还有这种分立器件搭建的过流保护…

SQL 语言:数据控制

文章目录 概述授权&#xff08;GRANT)销权&#xff08;REVOKE&#xff09;总结 概述 SQL语言中的数据控制权限分配是数据库管理的重要组成部分&#xff0c;它涉及到如何合理地为用户分配对数据库资源的访问和使用权限。 权限类型&#xff1a;在SQL中&#xff0c;权限主要分为…

Python条件分支与循环

大家好&#xff0c;当涉及到编写高效和灵活的程序时&#xff0c;条件分支和循环是 Python 中至关重要的概念。它们允许我们根据不同的条件执行不同的代码块&#xff0c;或者重复执行一组语句。条件分支和循环是测试开发工程师在日常工作中经常使用的工具&#xff0c;无论是编写…

易备数据备份软件:从 .VMDK 文件中对虚拟机进行文件级别的恢复

VMDK 是 VMware 创建的开放式的文件格式&#xff0c;主要用于云计算和虚拟化服务。从基本上讲&#xff0c;.vmdk 文件是虚拟磁盘&#xff0c;其中包含 VMware 虚拟机的所有信息。 可以使用多种应用&#xff08;Winzip、7zip 等&#xff0c;当然也可以使用易备数据备份软件&…

clickhouse——ck目录介绍

一、ck目录 1、/etc/clickhouse-server: 服务端的配置文件目录&#xff0c;包括全局配置config.xml和用户配置users.xml等。 2、/var/lib/clickhouse 默认的数据存储目录&#xff08;通常会修改默认路径配置&#xff0c;将数据保存到大容量磁盘挂载的路径&#xff09; 3、/var…

同时安装python2 和python3

最近的项目因为工具的原因 需要同时安装python2 和python3 我又想学着使用python 写东西 导致遇到了很多问题 记录下来 1 同时安装 python2 和python 1.1 安装完把/确认 Path 环境变量里 同时有python2,python2\Scripts和python3 ,python3\Scripts四个环境变量 修改python3…

利用预测大模型完成办公室饮水机剩余热水量

背景 在每天上班的时候&#xff0c;很多同事都有喝热水的习惯&#xff0c;但是饮水机内的热水量总是比较少的&#xff0c;如何避免等待&#xff0c;高效的接到热水是我接下来要做的事情的动机。 理论基础 在大量真实数据的情况下&#xff0c;可以分析出用水紧张的时间段和用水…

扔掉 MacBook,挑战带OrangePi出差!

背景 由于工作需要&#xff0c;博主经常会到各大企业的自建机房中私有化部署公司的软件产品。 在某些企业自建机房中&#xff0c;有时给到全新的机器&#xff0c;没有基础环境&#xff0c;甚至有的还无法互联网&#xff0c;而且因为近几年CentOS的停止更新&#xff0c;服务器…

【UE C++】 虚幻引擎C++开发需要掌握的C++和U++的基础知识有哪些?

目录 0 引言1 关键的 C 知识2 Unreal Engine 相关知识3 学习建议 &#x1f64b;‍♂️ 作者&#xff1a;海码007&#x1f4dc; 专栏&#xff1a;UE虚幻引擎专栏&#x1f4a5; 标题&#xff1a;【UE C】 虚幻引擎C开发需要掌握的C和U的基础知识有哪些&#xff1f;❣️ 寄语&…

01 一文理解,Prometheus详细介绍

01 一文理解&#xff0c;Prometheus详细介绍 介绍 大家好&#xff0c;我是秋意零。 Prometheus 是一个开源的系统监控和报警工具包&#xff0c;最初由SoundCloud开发&#xff0c;并在2012年作为开源项目发布。Prometheus 目前由Cloud Native Computing Foundation&#xff08…

58. UE5 RPG AI行为树的装饰器

书接56. UE5 RPG 给敌人添加AI实现跟随玩家&#xff0c;我们实现了AI一些基础设置&#xff0c;并实现了获取敌人附近的玩家实现了跟随功能 接下来&#xff0c;我们将实现区分职业&#xff0c;并根据职业不同设置不同的攻击距离&#xff0c;并且根据职业实现不同的技能施放。 …

VSCODE中F12无法跳转,快捷键设置F12和insert混淆了

异常现象 最近用新电脑&#xff08;华为&#xff09;的时候&#xff0c;发现VSCODE经常按F12无法跳转&#xff0c;在快捷键设置当中&#xff0c;也是设置成功的&#xff1b; 此时重新去快捷键设置&#xff0c;会发现按 F12变为了Insert 解决方法 华为笔记本的Fx按键&#x…

Euler 欧拉系统介绍

Euler 欧拉系统介绍 1 简介重要节点与版本EulerOS 特色EulerOS 与 openEuler 区别联系Euler 与 HarmonyOS 区别联系 2 openEuler特色支持 ARM&#xff0c;x86&#xff0c;RISC-V 等全部主流通用计算架构融入 AI 生态嵌入式实时能力提升引入 OpenHarmony 一些突出功能 参考 1 简…

23-LINUX--TCP连接状态

一.TCP服务的特点 传输层协议主要有两个&#xff1a;TCP 协议和 UDP协议。TCP 协议相对于UDP协议的特点是&#xff1a;面向连接、字节流和可靠传输。 使用TCP协议通信的双方必须先建立连接&#xff0c;然后才能开始数据的读写。双方都必须为该连接分配必要的内核资源&a…

OpenHarmony 适配HDMI接口声卡

高清多媒体接口&#xff08;High Definition Multimedia Interface&#xff0c;HDMI &#xff09;是一种全数字化视频和声音发送接口&#xff0c;可以发送未压缩的音频及视频信号。HDMI可用于机顶盒、DVD播放机、个人计算机、电视、游戏主机、综合扩大机、数字音响与电视机等设…

windows中每日定时执行python脚本,解决问题

由于需要一个每天定时执行的任务&#xff0c;所以需要定时启动&#xff0c;网上看了很多方法&#xff0c;感觉不能在python脚本种写个while true 定时执行&#xff0c;占资源不说还不可靠。 最后考虑通过系统工具定时启动&#xff0c;发现linux中有crontab&#xff0c;windows…

OpenHarmony实战开发——宿舍全屋智能开发指南

项目说明 基于OpenAtom OpenHarmony&#xff08;以下简称“OpenHarmony”&#xff09;、数字管家开发宿舍全屋智能&#xff0c;实现碰一碰开门、碰一碰开灯、碰一碰开风扇以及烟感检测。因为各项目开发流程大体相似&#xff0c;本文主要以碰一碰开门为例介绍如何在现有OpenHar…

海信集团携纷享销客启动LTC数字化落地 推动ToB业务再升级

日前&#xff0c;海信集团携手连接型CRM纷享销客正式启动LTC&#xff08;Leads to Cash&#xff09;数字化平台实施落地项目。作为海信集团数字化的重要里程碑&#xff0c;该项目将通过统一规划、统一投资、统一平台、资源共享和数据赋能&#xff0c;构建ToB业务数字化经营管理…