线性代数的本质笔记(3B1B课程)

文章目录

  • 前言
  • 向量
  • 矩阵
  • 行列式
  • 线性方程
  • 非方阵
  • 点积
  • 叉积
  • 基变换
  • 特征向量与特征值
  • 抽象向量空间

前言

最近在复习线代,李永乐的基础课我刷了一下,感觉讲的不够透彻,和我当年学线代的感觉一样,就是不够形象。

比如,行列式为什么那么重要,它的含义究竟是什么?特征值到底代表了什么?等等。说白了,我需要几何直观的理解。

几何直观解决的问题是,我为什么要用这个,有什么用,而数值计算只是让我们能应用罢了,可惜我们只是学了数值计算。

于是我开始刷3b1b的《线性代数的本质》

这篇文章是观看视频后我的个人感悟,可以结合视频一起食用,有解释的不清楚的地方,以视频为准,毕竟我理解的还是不够深入

线性代数的本质

向量

在线性代数中,向量是以原点为起点的箭头,终点坐标和向量的值是一样的。

因此,向量之间的空间上的运算也可以变成向量值的运算,比如向量和(移动),向量数乘(缩放)。

之所以能够用向量对应向量值,是因为有一个i和j的基底。说白了,就是坐标系。如果基底变了,要保持向量不变的话,向量值就要改变。

总之,用数值(向量值)描述向量,要依赖于基底。

如果两个基底不共线(线性无关),则可以张成一个面,否则只能是一条线

如果是三个线性无关的向量,则可以张成一个三维空间,如果是n个线性无关的向量,则可以张成n维空间,但是这个就是无法想象的了。

如何理解线性相关呢?所谓线性相关,就是说某一个向量落在了其他向量张成的空间内,不需要这个向量了,可以移除这个向量而不影响向量组张成的空间。

假设给定3个向量的向量组,假设两个向量共线,那么必然线性相关(充分条件),但是如果三个向量都不共线,就能说明线性无关了吗?不能。

下面4条等价:

  1. 线性相关
  2. 有一个向量落在其他两个向量张成的平面内
  3. 该向量可以被其他向量线性表出
  4. 存在不全为0的k,使得
    k 1 α 1 + ⋯ + k n α n = 0 k_1\alpha_1+\cdots+k_n\alpha_n=0 k1α1++knαn=0

前面的都好理解,第4条可以这么理解,基于3,可以得到第i个向量=其他向量的线性组合,那么令 k i = − 1 k_i=-1 ki=1,不就是一组不全为0的系数,让这个向量组的计算结果=0吗?

矩阵

矩阵有两种含义

  1. 向量组
  2. 对向量的线性变换

给定一个向量,乘一个矩阵,就可以变成新向量,这就是矩阵的几何意义。

当一个矩阵里面的所有向量被同时变换,那就是矩阵的线性变换。

但是无论是向量,还是矩阵,其变换都是通过乘以矩阵实现的。

实际上任何函数都可以变换空间,只是线性变换后,曾经的直线还是直线,原点也没有变化。本质在于,线性变换是均匀的,保持网格线平行等距均匀分布的变换。

在这里插入图片描述

用另一个说法去说,就是基底是线性变换的,而曾经的所有向量与基底的关系保持不变,变的,只是向量本身的值,而不是向量和基底的关系。

所以考虑线性变换,我们其实只需要记住两个事情:

  1. 原始向量和原始基底的关系,这个关系会保持不变
  2. 基底的情况,这会随着线性变换而变

这两点注意好,无论你怎么变基底,都可以迅速推断出新向量的位置

实际上,对于二维来说,一个向量本身就是 ( i ^ , j ^ ) [ k 1 k 2 ] = k 1 i ^ + k 2 j ^ (\hat{i},\hat{j}) \begin{bmatrix} k_1\\k_2\end{bmatrix}=k_1\hat{i}+k_2\hat{j} (i^,j^)[k1k2]=k1i^+k2j^

( i ^ , j ^ ) (\hat{i},\hat{j}) (i^,j^)本身就是一个矩阵, [ 1 0 0 1 ] \begin{bmatrix} 1\ 0\\ 0\ 1 \end{bmatrix} [1 00 1]

可以直观地理解:

  1. 左边的矩阵,从左到右是n个基底
  2. 右边的向量代表向量和基底的关系,就是线性标出的系数
  3. 新的向量就是新的基底的线性组合,最后算出来的值,就是新的基底下,向量的值。
    • 新向量按照维度理解,则每一个维度,都是基底按照系数线性组合的结果

进一步总结:任何一个向量都等于基底乘以系数向量,包括最开始的i,j基底。

在这里插入图片描述

通过这个思路,就可以理解,旋转和剪切是如何实现的了。

在这里插入图片描述
在这里插入图片描述
如果新的基底在一条直线上,那么原有的二维空间就会被挤压到一维空间上,这就是降维了。

在这里插入图片描述

进一步理解矩阵和矩阵相乘。

如果说一个矩阵描述了新基底,那么另一个矩阵就是把基底再进行一次变换,两次基底的变换可以复合成一次性的线性变换。

所以矩阵乘,有两种理解:

  1. 把一个空间的每一个向量都变成新的向量,形成新的空间
  2. 把两个线性变换复合为一个线性变换

按照这个思路去理解,只要不影响从右到左的变换顺序,那么就不影响最终结果,所以矩阵乘具有结合和分配,但是没有交换运算。

在这里插入图片描述

行列式

因为是线性变换,所以对于基底向量构成的方格的面积变换,这个比例对于任何方格都是一样的。

即使一个形状不是方格,也可以用方格近似,所以任意面积,在经过线性变换以后,变换的比例是恒定的。

在这里插入图片描述

在这里插入图片描述

这个面积变换的比例,就是行列式。

为什么存在线性相关向量的矩阵,行列式=0呢?就是因为降维了,导致体积被压缩为0.1

当然,行列式也是有可能出现负值的,那代表什么呢?对于二维空间来说就是翻了个面,学术点就是改变了空间的定向,所谓定向,就是基底的相对位置(比如二维中,正定向是i永远在j左边,三维中,符合右手定则)

在这里插入图片描述

为什么把行列式的两行/两列交换后取值要加负号呢?就是因为交换会改变定向,相当于翻了个面。

在这里插入图片描述

在这里插入图片描述

具体要问行列式怎么计算,下图是二维情况。当然,这就是图一乐,实际上你不会这么去算的,就是理解一下,确实是面积的放大比例。

在这里插入图片描述

线性方程

我们先讨论非齐次线性方程。

其几何意义在于,寻找一个线性组合x,让这个向量经过基底A变换后,与v对齐

在这里插入图片描述
当然,这种情况是复杂的,线性变换后到底降没降维,可以用秩来描述。秩就是A张成的列空间的维度

如果r(A)<n,就代表降维了,自然det(A)=0

如果A的行列式不为0,也就是说A张成的空间可以把v覆盖,那么就有且只有一个x在变换后能和v重合。

这就是唯一解的条件:r(A)=n(或者行列式≠0),代表满秩,r(A,v)=r(A),代表A可以线性表出v。其实后一个条件压根没必要,只要满秩,A的空间维度一定可以覆盖v。

而且,因为是唯一解,具有一一映射的特性,所以可以通过逆映射,即一个逆向线性变换把v倒回x,这就是逆矩阵。

在这里插入图片描述
如果行列式=0,即r(A)< n,那么正向变换是降维的,也就是说会把空间压缩,但是你要知道,v是没有被压缩的,还是高维的,那么就有两种可能:

  1. v恰好落在降维后空间内,即v可以被A线性表出,即r(A)=r(A,b)
  2. v落在降维后空间外,即r(A)< r(A,b),此刻无解

在这里插入图片描述
如果在降维后,还有解的话,那么v这个位置其实是被压缩了无数个向量的

在这里插入图片描述

这不是一一映射,你自然无法把一条线逆向变回一个平面,所以det(A)=0时,没有逆矩阵。

从空间角度理解可逆变换的几何意义,就是不降维的变换。

非齐次说完了,说一下齐次吧。

其次就是v=0的特殊情况,0向量,无论被如何压缩,都可以落在空间之中,所以一定有解。

那么有一个解,还是无穷解,就取决于空间是否被压缩了,比如下面这条线被压缩为一个点的时候,无数个非零向量都被压缩为了0向量。

这就是齐次方程无穷非零解的情况,降维必无穷非零。

在这里插入图片描述

我们再来思考一下基础解系。你有想过为什么基础解系基底的数量是n-r(A)个吗?

以三维举例,如果只压缩1个维度,那么从空间上来说,就是沿着一条线把一个三维空间压扁。因此,只压缩一个维度,就会有一条线上的所有向量压缩为0向量,此时只需要1个基底就可以表示所有线性变换前的向量(解)

在这里插入图片描述
在这里插入图片描述

如果压缩2个维度呢?从空间来想象,就是沿着一个面的方向,把三维空间收缩成一束,想象一下你用拇指和食指套成一个圈儿,把很多线捏成一束的过程。

既然是沿着面,那么这整个面上的向量就都会被压缩为0向量,此时就需要用2个基底去表示这一个面上的解向量了。

在这里插入图片描述
在这里插入图片描述

最后,因为基础解系张成的子空间比较特殊,专门给起了个名字叫矩阵的“零空间”,或者“核”,还是比较形象的,压缩以后只剩一个点了,压缩前那不就是核心嘛。

基础解系就是零空间的基底。

非方阵

方阵代表同一个维度的空间之间的线性变换(不考虑降维情况)

如果是非方阵,就要考虑m和n了。n列代表输入空间是n维的,m代表输出空间是m维的。

什么意思呢?比如在二维空间中,向量在一个平面上,经过了3×2矩阵,变成了3维向量后,向量存在于空间。

然而这并不代表这个升维后的向量,就能脱离原有的平面,非方阵只是把原有平面抬升到更高维的空间,但是平面还是平面,只是倾斜了,正如一张纸上的线,放到空间中,还是一条线。

说白了,m>n的情况下,矩阵只是把原来n个低维基底,转移到了高维的空间中,基底仍然是n个

在这里插入图片描述
如果是2×3矩阵呢?代表了把3维空间压缩到2维空间,这个变换是很不舒服的,因为把3个基底放到了2维空间,很明显有一个基底就是冗余的了。

在这里插入图片描述
在这里插入图片描述

二维也可以压缩到一维,根据线性性质,平面上等距的点,压缩成数后,仍然等距。

在这里插入图片描述
在这里插入图片描述

点积

这一节比较难,我上来没听懂,关键在于那个对偶性,对偶性容易和对称混淆,其实完全没关系,要是我说的话,对偶性就是一种一一映射,是唯一等价关系。

点积的计算公式是把对应的坐标相乘,并把结果相加。另一种计算方法是,把一个向量投影到另一个向量上,模之积就是点积。这两个计算方法看起来毫无关系,他们的联系是什么呢?
在这里插入图片描述在这里插入图片描述

记住,我们的目标是发现点积,线性变换,投影的联系,现在讲引理。

我们前面说,线性变换可以把线性的空间变成线性的空间。

那么反过来,只要是把线性空间变成另一个线性空间,就一定有一个,且只有一个唯一的线性变换与之对应。

注意这个唯一性,即使是把二维空间压缩为数轴,不同的压缩方法,其放缩倍数都是不一样的,所以是新的线性空间对应唯一的线性变换。

引理说完了,先来寻找一下和单位向量点积是如何与投影联系起来的。

首先,投影是一个线性变换。把二维空间的向量,投影到一条直线上,很明显这是个线性过程,而且还是二维到一维的。

根据对偶性,只要是线性变换,就一定有一个1×2的矩阵与之对应,即投影矩阵。

在这里插入图片描述
投影矩阵到底是多少呢?按照线性变换的几何意义,我们只需要找到i,j两个向量在目标直线上的位置,也就是他们的值就行。

此时引入一个单位向量 u ^ \hat{u} u^,根据对称性,i在直线上的投影值(新基底),恰好等于u的x轴

在这里插入图片描述

这样,我们就用线性变换表示出了投影运算,这是几何上的联系。

从数值上来看,向量通过投影矩阵进行线性变换,投影到单位向量所在直线上的值,恰好等于向量和单位向量的点积。

在这里插入图片描述

投影——(几何)——线性变换——(数值)——点积

整个对于单位向量,证明思路就是这样。

非单位向量呢?

非单位向量只是单位向量的放缩,计算点积的结果仍然是数,整个过程仍然是从二维到一维,所以仍然对应一个投影矩阵。

只不过因为投影后基底要放缩,所以投影矩阵整体是要比单位向量情况放缩k倍的,这个矩阵可以理解为先投影,再缩放(乘以向量的模)。

至于点积和线性变换,仍然是数值上的联系。如此,投影和点积就彻底联系起来了。

总的来说,这个证明过程用到了线性变换与矩阵的唯一对应性,也就是对偶性。

对于n维变1维的情况,必然有一个n×1的矩阵可以表示这个线性变换,把这个矩阵转置成向量,我们也可以说,任意一个n维变1维的线性变换,一定有一个空间中的向量v与之相关,这就是点积和线性变换的等价性。

在这里插入图片描述

叉积

叉积结果的模,平行四边形的面积。

行列式的几何意义,恰好也是线性变换的放大倍数,就用叉积的两个向量当线性变换,计算行列式就等于叉积结果。

当然最后要定向,分正负。

在这里插入图片描述

实际上,叉积是一个向量,垂直于底面,模是底面积。叉积可以说是一个代表底面大小和方向的向量。

在这里插入图片描述

具体如何计算叉积呢?就是用行列式, 好啦,问题来了,行列式怎么和叉积的几何意义联系起来的呢?还是对偶性。

在这里插入图片描述

一个线性变换,可以等价于和对偶向量的点乘。

在这里插入图片描述
整体的计划如下:

  1. 首先通过v和w构造线性变换
  2. 然后求出对偶向量,这个对偶向量恰好就是叉积
  3. 而且这个求对偶向量的过程,恰好也就是通过行列式计算叉积的过程。

在这里插入图片描述

这是一个输入向量,输出值的函数,行列式计算结果代表平行六面体的体积,很明显这是个线性变换(行列式的特点就是这样)。

在这里插入图片描述

根据对偶性,自然有一个1×3的线性变换,进而根据可以变成和3维向量点积,这个三维向量恰好就是我们要的点积。

之所以叉积要用ijk去代替xyz,写成行列式的样子,其实原理就在于此,ijk只是告诉你,算完以后的p是一个向量。

在这里插入图片描述
我们到这里只是给出了p的公式,还没有解释为啥p的模就等于底面积。

还得从最开始,平行六面体的体积来看。设(x,y,z)向量为a。则V=底面积×高=a在p上的投影×p的模

你要注意,高=a在p上的投影,所以底面积就自然等于p的模了。

在这里插入图片描述

基变换

不同的坐标系(基底),对于同一个向量,其向量坐标值都是不一样的。

比如,在b1,b2这个坐标系中(称b空间),我们的向量坐标是 [ − 1 , 2 ] T [-1,2]^T [1,2]T,但是在原始的i,j坐标系中(称ij空间),向量坐标应该是 [ − 4 , 1 ] T [-4,1]^T [4,1]T

如何实现不同基底下,向量的变换呢?

其实就是线性变换。对 [ − 1 , 2 ] T [-1,2]^T [1,2]T这个向量应用线性变换,就可以得到线性变换后的坐标值。

在这里插入图片描述
怎么去理解这个线性变换的过程呢?这里就有一个矛盾的点:

  1. 线性变换的含义是把我们这个ij空间变成b空间
  2. 线性变换的实际作用是吧b空间里的向量坐标转换为ij空间的向量坐标

在这里插入图片描述

根本问题在于这里对线性变换产生了误解。

我们以前的线性变换,是给定ij空间下的向量,然后作用一个线性变换,变成b空间的向量。

现在呢?我们给的是b空间的向量,压根就不是ij空间的向量,所以这个线性变换起到的并不是线性变换的作用,只是把本应属于b空间但是被误以为在ij空间的向量,从ij空间变换到了b空间。

所以上面那两种解释,其实只是两种不同的理解:

  1. 给定ij空间向量,矩阵乘后,将其投射到b空间中,得到的是拉伸后的ij空间坐标
  2. 给定b空间向量,矩阵乘后,得到其实际在ij空间的坐标

无论用哪种理解方式,得到的结果都是b空间向量用ij空间基底表示出的坐标。

在这里插入图片描述

理解了正向过程,反过来也就好说了,把ij空间真正的向量坐标,再转化为b空间基底表示的向量坐标。

在不同基底下的坐标转换,理解了以后,来看一下对不同坐标进行线性变换应该怎么做。

首先你要明白,我们前面的矩阵,都是对ij空间的线性变换,如果要对非ij空间进行线性变换,是无法直接用矩阵的,人家的基向量就不是ij,我们的矩阵无法直接作用到人家的基向量上。

那么思路就应该是:

  1. 先把非ij空间变成ij空间
  2. 然后进行线性变换
  3. 再把ij空间还原为非ij空间

在这里插入图片描述

中间的M是任意的,针对ij空间的线性变换,左右两边只是负责基变换转换视角的。

在这里插入图片描述

特征向量与特征值

在线性变换中,大部分的向量,方向都偏离了原有的方向。

有一部分向量,方向不变,这个方向上的所有向量方向都不变,仅仅是被拉伸了,而且倍数是相同的。

这些向量都是特征向量,倍数就是特征值。

这种直线,不止有一条,每一条上都有上面这种特殊的性质,也就是说,一个线性变换的特征值可能有好几个。

在这里插入图片描述

这玩意有啥用呢?对特征向量来说,就把一个线性变换简化成伸缩,这就是其意义。

在实际生产中,特征向量也有用,比如给你一个3D旋转变换,矩阵是非常麻烦的,但是你可以找到特征向量,特征向量那条线恰好就是转轴,而且特征值=1.

在数学理论中,特征向量可以用来从另一个角度理解线性变换。之前,我们是把ij变换到新的基底,实现空间的变换,在这个过程中,ij可能旋转,拉伸,比较复杂。

实际上,特征向量的数量和基底数量是一样的,那么我们不去看基底,我们把特征向量拉伸 λ i \lambda_i λi倍,也可以让空间变成我们目标的空间,这样理解就脱离了坐标轴,还原了线性变换的本质。

特征向量的性质讨论完了,该说说怎么算了。

下面这个等式,刚开始学比较懵逼,现在理解起来就很直观了,就是把线性变换简化成拉伸了呗。

在这里插入图片描述
把等式变换一下,就可以得到一个线性齐次方程。要有非零解,就一定要降维,所以行列式就等于0。

在这里插入图片描述
实际上,如果你把 λ \lambda λ看做变量,你在调整这个值的时候,行列式的几何意义(面积),也在连续变化,当这个变量使得面积=0的时候,这个变量就是特征值。当然,这并不是单调的,所以有多个零点,n阶矩阵最多有n个特征值

在这里插入图片描述
在这里插入图片描述
有时候,n阶矩阵的特征值小于n个(考虑重根),那就一定有一些特征值算出了虚数。比如下面这个旋转变换,压根就没特征值,所以最后算出俩虚数。

在这里插入图片描述
另一种特殊情况是,剪切,特征向量恰好在基向量方向上。这样的结果就是,你会丢失一个特征值,重根对应的特征向量会分布在基向量方向上。

在这里插入图片描述

还有一种特殊情况,就是空间整体的拉伸,你把特征值带进去以后,左边的矩阵会变成0矩阵,那么任意向量就都是特征向量了。

在这里插入图片描述

最后来说一下对角矩阵,对角矩阵的几何意义是把对应方向上的基向量放大k倍,所以n个对角矩阵相乘其实就是放大 k n k^n kn倍。

除去那些堆特殊情况,大部分情况其实是n阶矩阵有n个特征值,那么如果用这n个特征向量作为新的基底,就是所谓的“特征基”。

用这个基底有个好处,就是复杂的线性变换可以被看做是单纯的基向量放大,所有向量仅仅是伸缩,没有旋转。

那如何用现有基底,去表示特征基下的伸缩变换呢?回顾上一节的基变换,我们先把特征基变成现有基底,然后应用伸缩,再变回特征基。

至于基变换矩阵怎么求,就是把特征基对应特征值排列起来构成矩阵,这也是我们线代里的基本做法。

为什么说这个矩阵就是基变换矩阵呢?有了这个矩阵,每个在特征基空间内的基,比如(1,0,0),经过特征矩阵变换后,就可以得到ij空间内的特征向量坐标,符合基变换的特征,所以我们这么构造是合理的。

在这里插入图片描述

其实这就是相似对角化,而相似对角化的条件,其实就等价于你有n个特征基。

抽象向量空间

通过基变换你可以发现,线性代数中的各种运算,其实和基坐标没有什么关系,无论你选什么基底,他们的运算都具有线性性质,我们那些规则也都适用:

线性性质:

  1. 可加性:先加在变换=先变换再加
  2. 成比例:先乘再变换=先变换再乘

在这里插入图片描述
我们前面描述的,二维情况下网格线密度均匀,那只是一种特例,真正的线性性质应该是上面这两条。

实际上,无论是向量,还是函数,还是什么过程,比如求导,微分,只要你是某种转换,而且具有线性性质,那么就可以给它找一组基,写成向量的形式,就可以应用线代的公式和特性。

以多项式举例,选择x的不同幂为基底,则构成了一个向量空间,每个基都是一个向量,只不过我们写成一个函数。

在这里插入图片描述

那么给一个多项式,就可以用向量坐标表示出来其在向量空间的位置了。

在这里插入图片描述

求导运算是线性变换,所以可以用矩阵表示。

在这里插入图片描述

在数学中,除了求导,还有更多的东西是线性变换,凡是线性变换,都可以写成基,矩阵,向量,并且应用线代计算法则。

在这里插入图片描述
发明线代的数学家,为了把这种规则推广到各个领域,就需要建立其他领域到线代领域的桥梁,即线性空间的判定。

向量是什么形式并不重要,只要你构造的向量空间只要满足8条公理,就证明这个写法是线性的,可以应用所有线代法则。

在这里插入图片描述

之所以我们讲的那么难,就是为了普适,但是普适的代价就是抽象,所以如果真的想学好,其实应该先从具象入手,然后推广到抽象,只是这样就费时间了,所以很矛盾,但是我仍然建议两者互为补充。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/107482.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux监控基础命令

Linux资源监控 一.资源监控常用命令汇总 内存&#xff1a;top、free、vmstat、pmap I/O&#xff1a;vmstat、sar CPU&#xff1a;top、vmstat、mpstat、iostat 二.监控命令 日常检测使用top和free就足够了&#xff0c;如果要对系统进行日常监控可以使用zabbix或者prometh…

OLED透明屏曲面技术:创新突破引领显示行业未来

OLED透明屏曲面技术作为一项重要的显示技术创新&#xff0c;正在成为显示行业的焦点&#xff0c;其引人注目的优势和广泛应用领域使其备受关注。 本文将详细介绍OLED透明屏曲面技术的优势、应用领域以及市场前景&#xff0c;同时展望其未来的发展趋势&#xff0c;以期带给读者…

1.linux的常用命令

目录 一、Linux入门 二、Linux文件系统目录 三、Linux的vi和vim的使用 四、Linux的关机、重启、注销 四、Linux的用户管理 五、Linux的运行级别 六、Linux的文件目录指令 七、Linux的时间日期指令 八、Linux的压缩和解压类指令 九、Linux的搜索查找指令 ​​​​​​…

创建型模式-建造者模式

使用多个简单的对象一步一步构建成一个复杂的对象 主要解决&#xff1a;主要解决在软件系统中&#xff0c;有时候面临着"一个复杂对象"的创建工作&#xff0c;其通常由各个部分的子对象用一定的算法构成&#xff1b;由于需求的变化&#xff0c;这个复杂对象的各个部…

Python3 字符串

Python3 字符串 字符串是 Python 中最常用的数据类型。我们可以使用引号( 或 " )来创建字符串。 创建字符串很简单&#xff0c;只要为变量分配一个值即可。例如&#xff1a; var1 Hello World! var2 "Runoob" Python 访问字符串中的值 Python 不支持单字…

学习设计模式之享元模式,但是宝可梦

前言 作者在准备秋招中&#xff0c;学习设计模式&#xff0c;做点小笔记&#xff0c;用宝可梦为场景举例&#xff0c;有错误欢迎指出。 享元模式 1 介绍 享元模式很好理解&#xff0c;它主要是为了减少创建对象的数量&#xff0c;属于结构型设计模式 目的&#xff1a;减少…

DDR与PCIe:高性能SoC的双引擎

SoC芯片无处不在&#xff0c;小到家电控制的MCU&#xff0c;大到手机芯片&#xff0c;我们都会接触到。如今大部分芯片设计公司都在开发SoC芯片&#xff0c;一颗SoC芯片可以集成越来越多的功能&#xff0c;俨然它已成为IC设计业界的焦点。 高性能、高速、高带宽的互联和存储的…

Redis 执行 RDB 快照期间,主进程可以正常处理命令吗?

执行了 save 命令&#xff0c;会在主进程生成 RDB 文件&#xff0c;由于和执行操作命令在同一个线程&#xff0c;所以如果写入 RDB 文件的时间太长&#xff0c;会阻塞主进程。 执行 bgsave 过程中&#xff0c;由于是交给子进程来构建 RDB 文件&#xff0c;主进程还是可以继续工…

Docker安装及Docker构建简易版Hadoop生态

一、首先在VM创建一个新的虚拟机将Docker安装好 更新系统&#xff1a;首先打开终端&#xff0c;更新系统包列表。 sudo apt-get update sudo apt-get upgrade下图是更新系统包截图 安装Docker&#xff1a;使用以下命令在Linux上安装Docker。 sudo apt-get install -y docker.i…

【ulimit 命令】LINUX单进程能够打开的最大文件句柄数

Linux系统如何查看修改最大打开文件数&#xff0c;这个问题对于很多刚刚学习linux的小伙伴来说觉得有点奇怪。Linux系统和windows不同之处在于更强的多任务多线程&#xff0c;由于文件系统结构的不同linux针对不同进程不同用户都可以设置最打打开文件数。 查看当前系统最大的文…

Python自动化小技巧21——实现PDF转word功能(程序制作)

案例背景 为什么这个年代PDF转word&#xff0c;某wps居然还要收费.....很多软件都可以实现这个功能&#xff0c;但是效果都有好有坏&#xff0c;而且有的还付费&#xff0c;很麻烦。 那就用python实现这个功能吧&#xff0c;然后把代码打包为.exe的程序&#xff0c;这样随便在…

matlab使用教程(25)—常微分方程(ODE)选项

1.ODE 选项摘要 解算 ODE 经常要求微调参数、调整误差容限或向求解器传递附加信息。本主题说明如何指定选项以及每个选项与哪些微分方程求解器兼容。 1.1 选项语法 使用 odeset 函数创建 options 结构体&#xff0c;然后将其作为第四个输入参数传递给求解器。例如&#xff0…

腾讯云服务器地域和可用区详细介绍_选择攻略

腾讯云服务器地域有什么区别&#xff1f;怎么选择比较好&#xff1f;地域选择就近原则&#xff0c;距离地域越近网络延迟越低&#xff0c;速度越快。关于地域的选择还有很多因素&#xff0c;地域节点选择还要考虑到网络延迟速度方面、内网连接、是否需要备案、不同地域价格因素…

Elasticsearch算分优化方案之rescore_query

简介 今天来说一说Elasticsearch 的重新评分&#xff0c;即在检索出来一次结果的基础上在进行检索提升数据排序效果&#xff0c;但是仅对查询或者post_filter阶段返回的前多少条进行二次查询。在每个分片上进行二次检索的文档数量时可以通过window_size 控制的&#xff0c;该参…

论文及代码详解——HRNet

文章目录 论文详解 &#xff08;High-Resolution Networks&#xff09;Parallel Multi-Resolution ConvolutionsRepeated Multi-Resolution FusionsRepresentation Head 代码详解 论文&#xff1a;《Deep High-Resolution Representation Learning for Visual Recognition》 代…

选择排序:用C语言打造高效的排序算法

本篇博客会讲解如何使用C语言实现选择排序。 下面我来画图讲解选择排序的思路。 假设有一个数组&#xff0c;其初始状态如下&#xff0c;我们想把这个数组排成升序。 首先我们标明范围&#xff0c;即[begin, end]&#xff0c;一开始begin(b)和end(e)分别表示数组的第一个位置…

UE4/5Niagara粒子特效之Niagara_Particles官方案例:3.3->4.3

目录 3.3 Visibility Tag 左边的发射器&#xff1a; 发射器更新 粒子生成 粒子更新 右边的发射器 和左边发射器不同的地方 3.4 Texture Sampling 发射器更新 粒子生成 粒子更新 4.1Play Audio Per Particle 系统 第三个发射器 发射器更新 粒子生成 粒子更新 第二个…

第一个VUE程序?

<!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><title>Title</title></head> <body><div id"app">{{message}} </div><!-- 1.导入Vue.js --> <script s…

【C进阶】指针(一)

大家好&#xff0c;我是深鱼~ 【前言】&#xff1a; 指针的主题&#xff0c;在初阶指针章节已经接触过了&#xff0c;我们知道了指针的概念&#xff1a; 1.指针就是个变量&#xff0c;用来存放地址&#xff0c;地址的唯一标识一块内存空间&#xff08;指针变量&#xff09;&a…

无涯教程-机器学习 - 数据加载

假设如果要启动ML项目&#xff0c;那么您需要做的第一件事也是最重要的事情是什么?这是无涯教程启动任何ML项目都需要加载的数据。关于数据&#xff0c;对于ML项目&#xff0c;最常见的数据格式是CSV(逗号分隔值)。 基本上&#xff0c;CSV是一种简单的文件格式&#xff0c;用…