从零开始:神经网络(1)——神经元和梯度下降

 声明:本文章是根据网上资料,加上自己整理和理解而成,仅为记录自己学习的点点滴滴。可能有错误,欢迎大家指正。

一. 神经网络

1. 神经网络的发展

      先了解一下神经网络发展的历程。从单层神经网络(感知器)开始,到包含一个隐藏层的两层神经网络,再到多层的深度神经网络,一共有三次兴起过程。详见下图。

         随着神经网络的发展,其表示性能越来越强。从单层神经网络,到两层神经网络,再到多层神经网络,下图说明了,随着网络层数的增加,以及激活函数的调整,神经网络所能拟合的决策分界平面的能力。

  可以看出,随着层数增加,其非线性分界拟合能力不断增强。图中的分界线并不代表真实训练出的效果,更多的是示意效果。神经网络的研究与应用之所以能够不断地火热发展下去,与其强大的函数拟合能力是分不开关系的

2. 什么是神经网络

         神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。芬兰计算机科学家Teuvo Kohonen对神经网络定义为:“神经网络,是一种由具有自适应性简单单元构成的广泛并行互联的网络,它的组织结构能够模拟生物神经系统对真实世界所作出的交互反应。”

         下面是一个经典的神经网络。这是一个包含三个层次的神经网络。

  • 红色的是输入层(输入节点):从外部世界提供信息。在输入节点中,不进行任何的计算——仅向隐藏节点传递信息
  • 紫色的是中间层(也叫隐藏层或隐藏节点):隐藏层和外部世界没有直接联系(由此得名)。这些节点进行计算,并将信息从输入节点传递到输出节点。
  • 绿色的是输出层(输出节点):负责计算,并从网络向外部世界传递信息。

         输入层有3个输入单元,隐藏层有4个单元,输出层有2个单元。

 注意:

  1. 设计一个神经网络时,输入层与输出层的节点数往往是固定的,中间层则可以自由指定;
  2. 神经网络结构图中的拓扑与箭头代表着预测过程时数据的流向,跟训练时的数据流有一定的区别;
  3. 结构图里的关键不是圆圈(代表“神经元”),而是连接线(代表“神经元”之间的连接)。每个连接线对应一个不同的权重(其值称为权值),这是需要训练得到的。

3、什么是神经元

       上面说的“简单单元”,其实就是神经网络中的最基本元素——神经元(neuron)模型。在生物神经网络中,每个神经元与其它神经元,通过突触联接。神经元之间的“信息”传递,属于化学物质传递的。当它“兴奋(fire)”时,就会向与它相连的神经元发送化学物质(神经递质, neurotransmiter),从而改变这些神经元的电位;如果某些神经元的电位超过了一个“阈值(threshold)”,那么,它就会被“激活(activation)”,也就是“兴奋”起来,接着向其它神经元发送化学物质,犹如涟漪,就这样一层接着一层传播,如图所示。

      神经元模型是一个包含输入,输出与计算功能的模型。输入可以类比为神经元的树突,而输出(是否被激活)可以类比为神经元的轴突计算则可以类比为细胞核。如图所示。

然而,有的小伙伴还是感觉很抽象, 下面从一个逻辑与(AND)的例子形象说起。

(1)逻辑与(AND)

        在计算机中,存储的是0和1。计算机有很多对这种01操作的运算,其中有一种运算叫做逻辑与,在编程中运算符通常表示为&。两个数x_{1}x_{2}进行逻辑与运算的规则就是只要有一个数是0,那么整个运算就是0。我们将y=x_{1}&x_{2}的四种情况可以表示为如下所示。

x_{1}x_{2}y
000
100
010
111

          然后我们要解决的问题是,怎么让神经元根据这四组数据自己学习到这种规则。我们需要做的是让一个神经元根据这四个数据学习到逻辑与的规则。也就是说,将(x_{1}x_{2})视作一个坐标,将它描点在二维平面是这样的。

       我们让神经元能够学习到将(0,1)、(0,0)、(1,0)这些点分类为0,将(1,1)这个点分类为1。更直观的讲就是神经元得是像图中的这条直线一样,将四个点划分成两类。在直线左下是分类为0,直线右上分类为1。在人工智能范畴的的神经元它本质是一条直线,这条直线将数据划分为两类。与生物意义上的神经元可谓是千差万别。你可以理解为它是受到生物意义上的神经元启发,然后将它用来形象化数学公式。既然神经元它在数学意义上就是一条直线那么,怎么表示呢?

学计算机一个很重要的思维就是:任何一个系统都是由输入、输出、和处理组成

我们在了解神经元也是一样,在本文中的需求是知道一个坐标(x_{1}x_{2}),输出这个坐标的分类y。

我们按照计算机的输入输出思维整理下思路:

输入:x_{1}x_{2}

输出:y

处理:自己学习到从x_{1}x_{2}y的一种映射方法

我们知道输入输出,并且我们知道它是直线,那么我们就可以描述这个问题了。

我们继续看上面的图,在直线的右上方是x_{1}&x_{2}=1的情况,即分类为1的情况。在直线左下是x_{1}&x_{2}=0的情况。这个时候就可以用我们高中的知识来解决这个问题了。在高中我们知道一条直线可以表示为ax_{1}+bx_{2}+c=0。由于啊,在神经元里面大家喜欢把x_{1},x_{2}前面的系数a,b叫做权重(weight),把常数项c叫做偏置(bias)。因此一般大家把x前面系数命名为w,把常数项命名为b。这些都是约定俗成,所以大家记忆下就好。在本文中,用下面这个公式w_{1}*x_{1}+w_{2}*x_{2}+b=0表示图中的那条绿色的直线。

根据高中知识,一条直线将平面划分成两半,它可以用如下方式来描述所划分的两个半平面。

  • 左下:w_{1}*x_{1}+w_{2}*x_{2}+b<0,即当x_{1}x_{2}至少有一个是0 的时候。
  • 右上:w_{1}*x_{1}+w_{2}*x_{2}+b>0,即当x_{1}x_{2}都是1 的时候。

其实w_{1}*x_{1}+w_{2}*x_{2}+b=0,就是神经元,一个公式而已。是不是觉得神经元的神秘感顿时消失?大家平常看到的那种图只不过是受生物启发而画的,用图来描述这个公式而已。我们画个图来表示神经元,这种画图方法是受到生物启发。而求解图中的参数则从来都是数学家早就知道的方法(最小二乘法)

然后,前面提到过,神经元的形象化是受到生物启发。所以我们先介绍下怎么启发的。

生物意义上的神经元,有突触(输入),有轴突(输出),有细胞核(处理)。并且神经元传输的时候信号只有两个正离子和负离子。这和计算机1和0很类似。

总结下,神经元有突触(输入),有轴突(输出),有细胞核(处理)。如下图

咱们把上面这个神经元的数学表达式写一下对比下,w_{1}*x_{1}+w_{2}*x_{2}+b=0以后啊,大家见到神经元就用这种方式理解就可以

(2)梯度下降(Gradient)

          现在问题来了,现在我们有三个参数w_{1},w_{2},b,我们怎么设置这三个参数呢?一个很直观的想法就是自己手动调。但是,通常我们要解决的问题比这个复杂的多,神经网络是由神经元连接而成。而一般神经网络都是有几百个神经元。手动调太麻烦。那怎么办?

          我们可以将神经元用公式表示为:f(x_{1}*x_{2})=w_{1}*x_{1}+w_{2}*x_{2}+b,其中未知参数是w_{1},w_{2},b。那么我们怎么衡量这些未知参数到底等于多少才是最优的呢?

          这就得想个办法去量化它对吧。在物理界有个东西叫做误差。我们神经元不就是一个函数么f(x_{1}*x_{2}),我们要做的是让这个函数尽可能的准确模拟逻辑与(&)这个功能。假设逻辑与(&)可以表示成一个函数g(x_{1}*x_{2})​。那么用物理界的术语,我可以称呼g(x_{1}*x_{2})真实值(参考量值)f(x_{1}*x_{2})测量值(也常被称作观测值/实际值)真实值和测量值之间的误差可以两者相减并平方来量化。(绝对误差 = | 测量值 -真实值 |

其实,本文中的g(x_{1}*x_{2})非常简单。就四个点而已。上一个表就可以改为:

x_{1}x_{2}g(x_{1}*x_{2})
000
100
010
111

这样我们就得到了神经元的误差函数,它的自变量是w_{1},w_{2},b。所以问题就转变为了求误差函数最小时,w_{1},w_{2},b的取值就是最优的参数。

注意了:误差函数(error) =代价函数(cost function) =目标函数(objective function) =损失函数(loss function),这三个词可以随意替换的。所以你们在其他地方看到这三个词就都替换成误差函数就可以,别被概念搞蒙了。
损失函数就是一个自变量为算法的参数,函数值为误差值的函数。梯度下降就是找让误差值最小时候这个算法对应的参数。

本文中误差函数可以这么写L(w_{1},w_{2},b)=(f(x_{1},x_{2})-g(x_{1},x_{2}))^{2}。但右边没有w_{1},w_{2},b​,我们可以将f(x_{1}*x_{2})=w_{1}*x_{1}+w_{2}*x_{2}+b​代入,展开后可以写成这个样子:

L(w_{1},w_{2},b)=(w_{1}*x_{1}+w_{2}*x_{2}+b-g(x_{1},x_{2}))^{2}

这时右边有了w_{1},w_{2},b。那怎么求L(w_{1},w_{2},b)的最小值点呢?我们如果是只看w_{1}的话,它是个过原点的二次函数。如果综合看w_{1},w_{2},它像口锅。如果看w_{1},w_{2},b的话,这个维度太高,我等人类想象不出来。

注意: 最小值点含有两个意思。一是:求自变量w_{1},w_{2},b的值,二是函数在这个自变量的值下取最小值。

再次强调:我们要求的是w_{1},w_{2},b​的值。因为神经元就是只有这三个未知量,我们不关心其他的。而且在本文中的L(w_{1},w_{2},b)的最小值很明显,它就是0。它是个完全平方嘛肯定>=0。

那怎么求这个误差函数的最小值点呢?

数学家想到了一个办法叫做梯度下降梯度下降是一个可以让计算机自动求一个函数最小值时,找到它的自变量值就可以了。注意梯度下降只关心自变量值,不关心函数值。这儿你迷糊也没关系,看到后面回头看这句话就懂了。反正梯度下降它做的事就是找自变量。

接下来咱们一起来学习下啥是梯度下降?啥是梯度?为何下降?梯度下降为了能求得最优参数

  1. 啥是梯度?梯度就是导数,大家见到“梯度”就把它替换成导数就可以。在多维情况下梯度也是导数只不过是个向量,这个向量每个元素是一个偏导数。
  2. 为何下降?因为在数学里面(因为神经网络优化本来就是数学问题),在数学里面优化一般只求最小值点。那么有些问题要求最大值点怎么办?答:“在前面加负号”。简单粗暴就解决了。好继续回答为何下降,因为是求最小值点,那么这个函数肯定就像一口锅,我们要找的就是锅底的那个点在哪,然后我们当然要下降才能找到最小值点啦
  3. 为何梯度下降能求最优参数?因为只有知道梯度下降怎么做的,才知道为何它能求最优参数。所以接下来要介绍的是,梯度下降如何实现利用负梯度进行下降的。

再次总结下,我们需要让计算机求的参数是w_{1},w_{2},b​. 我们先讲怎么怎使用梯度下降求最优的w_{1}​的吧。会求w_{1}其它的几个参数都是一样的求法。

那梯度下降怎么做到求最优的w_{1}呢?(最优指的是误差函数L(w_{1},w_{2},b)此时取最小)

采取的一个策略是猜。没错,就是猜。简单粗暴。不过它是理性的猜。说的好听点叫做理性的去估计。我们前面提到了误差函数关于w_{1}是一个二次函数,假设长下面这样。

但计算机不知道它长这样啦。它只能看到局部。首先一开始它随便猜,比如猜w_{1}=0.5吧。我们前面提到了计算机它只知道局部。为何呢?你想,我现在取值是w_{1}=0.5,我可以增大一点点或减小一点点w_{1},这样我当然只知道w_{1}=0.5​这周围的误差函数值啦。

现在按照你的直觉,猜一猜猜一猜,你觉得最优的w_{1}到底比0.5大还是比0.5小?

我想我们答案应该是一样的,肯定比0.5小。因为往右边走,即让w_{1}比0.5大的话,它的误差函数是增长的。也就是在w_{1}=0.5周围时候,w_{1}越大,误差越大。

其实梯度下降就是让计算机这么猜,因为计算机判断速度快嘛。猜个上万次就很容易猜到最优值。

回顾下我们怎么猜的?

我们是直觉上觉得,这个增大w_{1}误差函数是增加的。那这个怎么用理性思考呢?这个时候就可以用高中所学的判断函数单调性的方法了:求一阶导数啊。即:“一阶导数>0,函数单调递增,函数值随自变量的增大而增大”。

所以,我们只需要让计算机判断当前猜的这个点导数是大于0还是小于0. 该点一阶导数大于0的话,这个局部是单调递增的,增大w_{1}的值,误差函数值会增大。因此就得减小w_{1}的值;同理,如果一阶导数小于0 ,那么这个局部是单调递减的,我们增大w_{1}的值可以降低误差函数值。

总结规律:

导数>0, 减小w_{1}的值。     导数<0,增大w_{1}的值。

可以发现,w_{1}的变化与导数符号相反。因此下次要猜的w_{1}的值可以这么表示:下次要猜的w_{1}的值=本次猜的w_{1}的值-导数。有时候导数太大也可能会猜跳的太猛,我们在导数前面乘个小数防止猜的太猛。这个小数大家通常称呼它为学习率。(从这里可以看出学习率肯定小于1的)因此可以这么表示:

下次要猜的w_{1}的值=本次猜的w_{1}的值-学习率×导数。

学习率一般设置0.001,0.01,0.03等慢慢增大,如果计算机猜了很久没猜到证明得让它放开步子猜了,就增大它。

现在我们知道梯度下降干嘛了吧,它就是理性的猜最优值。那什么时候结束猜的过程呢?我们看下图,发现它最优值的那个地方导数也是0.那么我们只需要判断误差函数对w_{1}的导数是否接近0就可以。比如它绝对值小于0.01我们就认为已经到了最优点了。

误差函数是这个:L(w_{1},w_{2},b)=(w_{1}*x_{1}+w_{2}*x_{2}+b-g(x_{1},x_{2}))^{2}​. 对w_{1}求导,得到导函数L^{'}(w_{1},w_{2},b)=2*(w_{1}*x_{1}+w_{2}*x_{2}+b-g(x_{1},x_{2}))*x_{1}​.

现在总结下梯度下降(采用的是很常用的随机梯度下降)的步骤:

初始化w_{1}。(随便猜一个数),比如让w_{1}=0.5;// 注意了,同样数据反复输入进去训练的次数大家一般叫他epoch,// 大家都这么叫记住就可以,在英语里面epoch=times=次数循环多次(同样的数据重复训练)

②{遍历样本(逐个样本更新参数)

③{​ 将样本x_{1},x_{2},和标签g(w_{1},w_{2}),代入损失函数对w_{1}​的导函数,求得导数值;​

      下次要猜的w_{1}的值=本次猜的w_{1}的值-学习率*导数值;}

    }

然后我们就可以得到最优的w_{1}​了。

对于剩下的w_{2},b他们是一样的,都是利用让计算机猜。大家参考w_{1}怎么求的吧。

注意了,因为我们是二分类问题,虽然我们想让它直接输出0和1,但是很抱歉。它只能输出接近0和接近1的小数。为了方便编程,我们用-1代替0。也就是说只要神经元输出负数我们认为它就是输出0. 因为直接判断它是否接近0和是否接近1编程会更麻烦

注意了,因为我们是二分类问题,虽然我们想让它直接输出0和1,但是很抱歉。它只能输出接近0和接近1的小数。为了方便编程,我们用-1代替0。也就是说只要神经元输出负数我们认为它就是输出0. 因为直接判断它是否接近0和是否接近1编程会更麻烦

注意了,大家以后也会发现很多数据集二分类问题都会用1和-1而不用0.这是为了编程方便。我们只需要判断正负就可以知道是哪个分类。而不是需要判断是接近0还是接近1

好现在我们知道神经元的数学表达和怎么画它的形象化的图了。那么不如我们用编程也表达下它吧?

(3)实例演示

整体思路:

神经# 单层神经元 求f=x1&x2,f值的划分(即1划一组,0划一组) 
# 即求误差△=|测量值-参考值|=|w1*x1+w2*x2+b-g(x1,x2)|的值最小 
# 即求△的导数 ≈ 0,如对w1求导: 2*(w1*x1+w2*x2+b-g(x1,x2))*x1 ≈ 0

训练函数:

import numpy as np# train :训练样本
# 输入 data  用于训练的数据样本,样本格式为[x1,x2,g(x1,x2)]
# 输入 epoch 数据训练的次数
# 输入 learn_rate # 设置学习率,防止猜的步子太大
# 输入 g_pred 预测值 g(x1,x2)
# 返回 weights 权重
# 返回 biases 偏置
def train(data, g_pred, n_epoch=1000, learn_rate=0.01):n_sample, n_feature = data.shape  # 获得样本的数量(行)和数据的特征(列)# 第一步: 初始化w和b的值,随便取w和b的值。weights = np.random.randn(n_feature)  # 随机设置权重,即初始化w,随便取w的值biases = np.random.randn()  # 初始化b,随便取b的值# 第二步 训练样本for _ in range(n_epoch):for i in range(n_sample):  # 逐个样本更新权重# 其中 i=[x1,x2,g(x1,x2)],为data数据中一行# 分别求w1、w2、b在(x1,x2,g(x1,x2))处的导函数值y_pred = np.dot(weights, data[i]) + biases  # 计算预测值,即 f=w*x+b的值d_weights = (y_pred - g_pred[i]) * 2 * data[i]  # 误差 =(测量值-预测值)^2,对误差取导数=2*(w*x+b-g(x1,x2))*wd_biases = (y_pred - g_pred) * 2loss = np.square(y_pred)  # 计算损失的平方# 设置猜数环节:下次猜的数 = 本次猜的数 - 学习率*导数值weights_next = weights - learn_rate * d_weightsbiases_next = biases - learn_rate# 更新各自参数weights = weights_nextbiases = biases_nextreturn weights, biases

 定义神经元

# 定义 神经元
# 经过训练,我们期望它的返回值是x1&x2
# 即:返回值是 w1*x1+w2*x2 + b > 0? 1:0;
def f(data, weights, biases):c = 1 if np.dot(weights, data) + biases > 0 else 0return c

整体流程

import numpy as np
import matplotlib.pyplot as pltdata = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])  # x1,x2的四个元素
g_real = np.array([-1, -1, -1, -1])  # 四个真实值
weights, biases = train(data, g_real)  # 自定义的训练函数,让神经元自己根据四条数据学习逻辑与的规则
#打印相关值,看是否正确
print(weights, biases)
print("0&0", f(data[0], weights, biases))
print("0&1", f(data[1], weights, biases))
print("1&0", f(data[2], weights, biases))
print("1&1", f(data[3], weights, biases))# 绘制训练后的图像
x1 = data[:, 0]  # 提取第1列的值
x2 = -(weights[0] * x1 + biases) / weights[1]
plt.plot(x1, x2, 'r', label='Decision Boundary')
n_sample, n_feature = data.shape  # 获得样本的数量(行)和数据的特征(列)
for i in range(data.shape[0]):if f(data[i], weights, biases) == 0:plt.plot(data[i, 0], data[i, 1], 'bo')else:plt.plot(data[i, 0], data[i, 1], 'ro')plt.legend()
plt.show()

运行的结果:

参考:易懂的神经网络理论到实践(1):单个神经元+随机梯度下降学习逻辑与规则 - 知乎 (zhihu.com)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/272655.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

excel统计分析——嵌套设计

参考资料&#xff1a;生物统计学&#xff0c;巢式嵌套设计的方差分析 嵌套设计&#xff08;nested design&#xff09;也称为系统分组设计或巢式设计&#xff0c;是把试验空间逐级向低层次划分的试验设计方法。与裂区设计相似&#xff0c;先按一级因素设计试验&#xff0c;然后…

高度塌陷问题及解决

什么情况下产生 (when 父盒子没有定义高度&#xff0c;但是子元素有高度&#xff0c;希望用子盒子撑起父盒子的高度&#xff0c;但是子盒子添加了浮动属性之后&#xff0c;父盒子高度为0 <template><div class"father"><div class"son"&…

R统计学2 - 数据分析入门问题21-40

往期R统计学文章&#xff1a; R统计学1 - 基础操作入门问题1-20 21. 如何对矩阵按行 (列) 作计算&#xff1f; 使用函数 apply() vec 1:20 # 转换为矩阵 mat matrix (vec , ncol4) # [,1] [,2] [,3] [,4] # [1,] 1 6 11 16 # [2,] 2 7 12 17 # [3,] …

了解华为(PVID VLAN)与思科的(Native VLAN)本征VLAN的区别并学习思科网络中二层交换机的三层结构局域网VLAN配置

一、什么是二层交换机&#xff1f; 二层交换机&#xff08;Layer 2 Switch&#xff09;是一种网络设备&#xff0c;主要工作在OSI模型的数据链路层&#xff08;第二层&#xff09;&#xff0c;用于在局域网内部进行数据包的交换和转发。二层交换机通过学习MAC地址表&#xff0…

codeforcesABC

A A. Marathon time limit per test 1 second memory limit per test 256 megabytes input standard input output standard output DeepL 翻译  A.马拉松 每次测试的时间限制&#xff1a;1 秒 每次测试的内存限制&#xff1a;256 兆字节 输入&#xff1a…

简单认识Linux

今天带大家简单认识一下Linux&#xff0c;它和我们日常用的Windows有什么不同呢&#xff1f; Linux介绍 Linux内核&发行版 Linux内核版本 内核(kernel)是系统的心脏&#xff0c;是运行程序和管理像磁盘和打印机等硬件设备的核心程序&#xff0c;它提供了一个在裸设备与…

Nginx配置文件的整体结构

一、Nginx配置文件的整体结构 从图中可以看出主要包含以下几大部分内容&#xff1a; 1. 全局块 该部分配置主要影响Nginx全局&#xff0c;通常包括下面几个部分&#xff1a; 配置运行Nginx服务器用户&#xff08;组&#xff09; worker process数 Nginx进程PID存放路径 错误…

Normalizer(归一化)和MinMaxScaler(最小-最大标准化)的区别详解

1.Normalizer&#xff08;归一化&#xff09;&#xff08;更加推荐使用&#xff09; 优点&#xff1a;将每个样本向量的欧几里德长度缩放为1&#xff0c;适用于计算样本之间的相似性。 缺点&#xff1a;只对每个样本的特征进行缩放&#xff0c;不保留原始数据的分布形状。 公式…

【ubuntu】安装 Anaconda3

目录 一、Anaconda 说明 二、操作记录 2.1 下载安装包 2.1.1 官网下载 2.1.2 镜像下载 2.2 安装 2.2.1 安装必要的依赖包 2.2.2 正式安装 2.2.3 检测是否安装成功 方法一 方法二 方法三 2.3 其他 三、参考资料 3.1 安装资料 3.2 验证是否成功的资料 四、其他 …

STM32---通用定时器(二)相关实验

写在前面&#xff1a;前面我们学习了基本定时器、通用定时器的相关理论部分&#xff0c;了解到通用定时器的结构框图&#xff0c;总共包含六大模块&#xff1a;时钟源、控制器、时基单元、输入捕获、公共部分以及输出捕获。对相关模块的使用也做详细的讲解。本节我们主要是对上…

【HarmonyOS】ArkTS-枚举类型

枚举类型 枚举类型是一种特殊的数据类型&#xff0c;约定变量只能在一组数据范围内选择值 定义枚举类型 定义枚举类型&#xff08;常量列表&#xff09; enum 枚举名 { 常量1 值, 常量2 值,......}enum ThemeColor {Red #ff0f29,Orange #ff7100,Green #30b30e}使用枚举…

读算法的陷阱:超级平台、算法垄断与场景欺骗笔记05_共谋(中)

1. 默许共谋 1.1. 又称寡头价格协调&#xff08;Oligopolistic Price Coordination&#xff09;或有意识的平行行为&#xff08;Conscious Parallelism&#xff09; 1.1.1. 在条件允许的情况下&#xff0c;它会发生在市场集中度较高的行业当中 1.1.…

你还可以通过“nrm”工具,来自由管理“npm”的镜像

你还可以通过“nrm”工具&#xff0c;来自由管理“npm”的镜像 nrm&#xff08;npm registry manager&#xff09;是npm的镜像管理工具&#xff0c;有时候国外的资源太慢&#xff0c;使用这个就可以快速地在npm源间切换。 1.安装nrm 在命令行执行命令&#xff0c;npm install…

如何免费获得一个市全年的气象数据?降雨量气温湿度太阳辐射等等数据

气象数据一直是一个价值较高的数据&#xff0c;它被广泛用于各个领域的研究当中。气象数据包括有气温、气压、相对湿度、降水、蒸发、风向风速、日照等多种指标&#xff0c;但是包含了这些全部指标的气象数据却较难获取&#xff0c;即使获取到了也不能随意分享。 想要大规模爬取…

抽象的java发送邮箱2.0版本

优化了更多细节 SpringBoot3&#xff1a;前置框架 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-jdbc</artifactId></dependency><dependency><groupId>org.springframewo…

【工具】Git的24种常用命令

相关链接 传送门&#xff1a;>>>【工具】Git的介绍与安装<< 1.Git配置邮箱和用户 第一次使用Git软件&#xff0c;需要告诉Git软件你的名称和邮箱&#xff0c;否则无法将文件纳入到版本库中进行版本管理。 原因&#xff1a;多人协作时&#xff0c;不同的用户可…

Python匿名函数有知道的吗?

1.函数 按照函数是否有名字分为有名字的函数和匿名函数 匿名函数&#xff1a;定义函数时&#xff0c;不再使用def关键字声明函数&#xff0c;而是使用lambda表达式 匿名函数在需要执行简单的操作时非常有用&#xff0c;可以减少代码冗余 2.有名字的函数 def fn(n):return …

【Redis知识点总结】(二)——Redis高性能IO模型剖析

Redis知识点总结&#xff08;二&#xff09;——Redis高性能IO模型及其事件驱动框架剖析 IO多路复用传统的阻塞式IO同步非阻塞IOIO多路复用机制 Redis的IO模型Redis的事件驱动框架 IO多路复用 Redis的高性能的秘密&#xff0c;在于它底层使用了IO多路复用这种高性能的网络IO&a…

ARTS Week 20

Algorithm 本周的算法题为 1222. 可以攻击国王的皇后 在一个 下标从 0 开始 的 8 x 8 棋盘上&#xff0c;可能有多个黑皇后和一个白国王。 给你一个二维整数数组 queens&#xff0c;其中 queens[i] [xQueeni, yQueeni] 表示第 i 个黑皇后在棋盘上的位置。还给你一个长度为 2 的…

Linux上安装torch-geometric(pyg)1.7.2踩坑记录

重点&#xff1a;1.一定要在创建虚拟环境的时候设置好python版本。2.一定要先确定使用1.X还是2.X的pyg库&#xff0c;二者不兼容。3.一定要将cuda、torch、pyg之间的版本对应好。所以&#xff0c;先确定pyg版本&#xff0c;再确定torch和cuda的版本。 结论&#xff1a;如果在u…