最优化学习笔记(一)

1. 常见问题[0]

L0范数优化问题:1.2.2
m i n ∣ ∣ x ∣ ∣ 0 , min \space ||x||_0, min ∣∣x0,
s . t . A x = b s.t. \space Ax=b s.t. Ax=b
其中, A x = b Ax=b Ax=b为一个欠定方程组(方程个数远小于未知数个数)。
问题1.2.2是一个NP难问题,若 A , b A,b A,b满足一定条件,可将其转化为基追踪问题求解(L1范数优化问题),但不能将其转化为L2范数优化问题。
因为L0与L1范数优化问题的解具有稀疏性,而L2范数优化问题却不具有稀疏性。

基追踪问题:1.2.3
m i n ∣ ∣ x ∣ ∣ 1 , min \space ||x||_1, min ∣∣x1,
s . t . A x = b s.t. \space Ax=b s.t. Ax=b
其中, A x = b Ax=b Ax=b为一个欠定方程组(方程个数远小于未知数个数)

LASSO问题(LASSO,least absolute shrinkage and selection operator):1.2.5
m i n 1 2 ∣ ∣ A x − b ∣ ∣ 2 + μ ∣ ∣ x ∣ ∣ 1 min \space \frac{1}{2} ||Ax-b||^2 + \mu ||x||_1 min 21∣∣Axb2+μ∣∣x1

矩阵补全问题,低秩矩阵恢复问题:1.3.1
m i n r a n k ( X ) , min \space rank(X), min rank(X),
s . t . X i j = M i j , ( i , j ) ∈ Ω s.t. \space X_{ij} = M_{ij}, (i,j)\in \Omega s.t. Xij=Mij,(i,j)Ω
其中, Ω \Omega Ω为指标集
该问题是一个NP难问题。 r a n k ( X ) rank(X) rank(X)为矩阵 X X X非零奇异值的个数,将该问题替换为使得矩阵的核范数最小(奇异值和最小):
m i n ∣ ∣ X ∣ ∣ ∗ , min \space ||X||_*, min ∣∣X, 1.3.2
s . t . X i j = M i j , ( i , j ) ∈ Ω s.t. \space X_{ij} = M_{ij}, (i,j)\in \Omega s.t. Xij=Mij,(i,j)Ω
问题1.3.2的罚函数形式:
m i n μ ∣ ∣ X ∣ ∣ ∗ + 1 2 Σ ( i , j ) ∈ Ω ( X i j − M i j ) 2 min \space \mu ||X||_* + \frac{1}{2} \Sigma_{(i,j)\in \Omega} (X_{ij} - M_{ij})^2 min μ∣∣X+21Σ(i,j)Ω(XijMij)2 1.3.3

神经网络优化模型:1.4.3
m i n Σ i = 1 m ∣ ∣ h ( a i ; x ) − b i ∣ ∣ + λ r ( x ) min \space \Sigma_{i=1}^m ||h(a_i; x) - b_i|| + \lambda r(x) min Σi=1m∣∣h(ai;x)bi∣∣+λr(x)
r ( x ) r(x) r(x)为正则项, a i , b i a_i,b_i ai,bi为训练集的输入与输出

求解方程 ϕ i ( x ) = b i , i = 1 , . . . , m \phi_i (x) = b_i, i=1,...,m ϕi(x)=bi,i=1,...,m 3.1.1 (最常见的是 A x = b Ax=b Ax=b
最小二乘问题:3.1.2
m i n Σ i = 1 m ( b i − ϕ i ( x ) ) 2 min \space \Sigma_{i=1}^m (b_i - \phi_i(x))^2 min Σi=1m(biϕi(x))2
最小一乘问题:3.1.3
m i n Σ i = 1 m ∣ b i − ϕ i ( x ) ∣ min \space \Sigma_{i=1}^m |b_i - \phi_i(x)| min Σi=1mbiϕi(x)
最小最大模型:3.1.4 使最大偏差最小化
m i n m a x i ∣ b i − ϕ i ( x ) ∣ min \space \underset {i}{max} |b_i - \phi_i(x)| min imaxbiϕi(x)
对于很多问题最优解不止一个,或者为了让解具有某些性质,需要加入正则项,即加入关于解的先验知识。
正则项: μ ∣ ∣ x ∣ ∣ 2 2 , μ ∣ ∣ x ∣ ∣ 1 \mu ||x||_2^2, \mu||x||_1 μ∣∣x22,μ∣∣x1
x x x本身不稀疏,但其变换域中是稀疏的,则正则项为: μ ∣ ∣ W ( x ) ∣ ∣ 2 2 , μ ∣ ∣ W ( x ) ∣ ∣ 1 \mu ||W(x)||_2^2, \mu||W(x)||_1 μ∣∣W(x)22,μ∣∣W(x)1,图像处理中 W ( ⋅ ) W(\cdot) W()为全变分或小波变换等。

最大似然估计:
m a x Π i = 1 n p ( a i , x ) max \space \Pi_{i=1}^n p(a_i, x) max Πi=1np(ai,x)
a i a_i ai为样本, x x x为未知参数, p ( a i , x ) p(a_i, x) p(ai,x)为分布律或概率密度函数
一般对数变换后更容易求解

Tikhonov正则化或岭回归问题:3.2.6
m i n 1 2 ∣ ∣ A x − b ∣ ∣ 2 2 + μ ∣ ∣ x ∣ ∣ 2 2 min \space \frac{1}{2} ||Ax-b||_2^2 + \mu||x||_2^2 min 21∣∣Axb22+μ∣∣x22

矩阵 M M M分解为低秩矩阵 X X X与稀疏矩阵 S S S
m i n r a n k ( X ) + μ ∣ ∣ S ∣ ∣ 0 , min \space rank(X) + \mu ||S||_0, min rank(X)+μ∣∣S0,
s . t . X + S = M s.t. \space X+S=M s.t. X+S=M
其中, ∣ ∣ S ∣ ∣ 0 ||S||_0 ∣∣S0表示 S S S的非零元素个数。
为便于求解,替换为:
m i n ∣ ∣ X ∣ ∣ ∗ + μ ∣ ∣ S ∣ ∣ 1 , min \space ||X||_* + \mu ||S||_1, min ∣∣X+μ∣∣S1,
s . t . X + S = M s.t. \space X+S=M s.t. X+S=M

图像全变分:
∣ ∣ u ∣ ∣ T V = ∫ Ω ∣ ∣ ∇ u ∣ ∣ d x ||u||_{TV} = \int_{\Omega} ||\nabla u|| dx ∣∣uTV=Ω∣∣∇u∣∣dx
L1范数得到各向异性全变分:
∣ ∣ ∇ u ∣ ∣ 1 = ∣ ∂ x u ∣ + ∣ ∂ y u ∣ ||\nabla u||_1 = |\partial_x u| + |\partial_y u| ∣∣∇u1=xu+yu
L2范数得到各向同性全变分:
∣ ∣ ∇ u ∣ ∣ 2 = ( ∂ x u ) 2 + ( ∂ y u ) 2 ||\nabla u||_2 = \sqrt{(\partial_x u)^2 + (\partial_y u)^2} ∣∣∇u2=(xu)2+(yu)2
Rudin-Osher-FatemiR(ROF)模型:
m i n ∣ ∣ A u − b ∣ ∣ L 2 2 + λ ∣ ∣ u ∣ ∣ T V min ||\mathcal Au - b||_{L^2}^2 + \lambda ||u||_{TV} min∣∣AubL22+λ∣∣uTV
其中, A \mathcal A A为单位算子则模型用于图像去噪,若为模糊算子则模型用于去模糊。第二项保证重构出的图像的阶跃是稀疏的,即重构的图像是一个分片常函数。

2.基础知识[0]

上方图 epigraph

广义实值函数 f : R n → R ˉ f: R^n \rightarrow \bar{R} f:RnRˉ的上方图:
e p i f = { ( x , t ) ∈ R n + 1 ∣ f ( x ) ≤ t } epi \space f = \{(x,t) \in R^{n+1} | f(x) \leq t \} epi f={(x,t)Rn+1f(x)t}
其中, R ˉ = R ∪ { ± ∞ } \bar{R} = R \cup \{ \pm \infty\} Rˉ=R{±}

凸函数

适当函数:若广义实值函数 f ( x ) , x ∈ χ f(x), x\in \chi f(x),xχ满足 至少有一处取值不为正无穷,以及处处取值不为负无穷,则称 f f f关于 χ \chi χ是适当的。

凸集 C C C满足:
θ x 1 + ( 1 − θ ) x 2 ∈ C , ∀ θ ∈ [ 0 , 1 ] \theta x_1 + (1-\theta) x_2 \in C, \forall \theta \in [0,1] θx1+(1θ)x2C,θ[0,1]
其中, x 1 , x 2 ∈ C x_1, x_2 \in C x1,x2C
仿射集要求更高:
θ x 1 + ( 1 − θ ) x 2 ∈ C , ∀ θ ∈ R \theta x_1 + (1-\theta) x_2 \in C, \forall \theta \in R θx1+(1θ)x2C,θR
其中, x 1 , x 2 ∈ C x_1, x_2 \in C x1,x2C
所以仿射集都是凸集。

f f f为适当函数, d o m f dom \space f dom f是凸集,且
f ( θ x + ( 1 − θ ) y ) ≤ θ f ( x ) + ( 1 − θ ) f ( y ) , f(\theta x+ (1-\theta)y)\leq \theta f(x) + (1-\theta)f(y), f(θx+(1θ)y)θf(x)+(1θ)f(y),
x , y ∈ d o m f , θ ∈ [ 0 , 1 ] x, y \in dom \space f, \theta \in [0,1] x,ydom f,θ[0,1]
f f f为凸函数。

次梯度

梯度 g g g定义:
l i m p → 0 f ( x + p ) − f ( x ) − g T p ∣ ∣ p ∣ ∣ = 0 \underset{p \rightarrow 0}{lim} \frac{f(x+p)-f(x) - g^Tp}{||p||} = 0 p0lim∣∣p∣∣f(x+p)f(x)gTp=0
梯度下降算法:
x k + 1 = x k − α k ∇ f ( x k ) x^{k+1} = x^k - \alpha_k \nabla f(x^k) xk+1=xkαkf(xk)

次梯度 g g g的定义:
f ( y ) ≥ f ( x ) + g T ( y − x ) , ∀ y ∈ d o m f f(y) \geq f(x) + g^T (y-x), \forall y \in dom \space f f(y)f(x)+gT(yx),ydom f
f f f为适当凸函数。
次梯度算法:
x k + 1 = x k − α k g k x^{k+1} = x^k - \alpha_k g^k xk+1=xkαkgk

LASSO问题1.2.5的次梯度:
g = A T ( A x − b ) + μ ⋅ s i g n ( x ) g = A^T(Ax-b) + \mu \cdot sign(x) g=AT(Axb)+μsign(x)

共轭函数

适当函数 f f f的共轭函数:
f ∗ ( y ) = s u p x ∈ d o m f y T x − f ( x ) f^* (y) = \underset{x \in dom \space f}{sup} y^Tx - f(x) f(y)=xdom fsupyTxf(x)
其中, s u p sup sup为上确界, d o m dom dom为定义域

二次函数:
f ( x ) = 1 2 x T A x + b T x + c f(x) = \frac{1}{2} x^TAx + b^T x + c f(x)=21xTAx+bTx+c
A A A为正定矩阵时, f ( x ) f(x) f(x)的共轭函数:
f ∗ ( y ) = 1 2 ( y − b ) T A − 1 ( y − b ) − c f^*(y) = \frac{1}{2} (y-b)^T A^{-1} (y-b) - c f(y)=21(yb)TA1(yb)c

任一函数 f f f的二次共轭函数:
f ∗ ∗ ( x ) = s u p y ∈ d o m f ∗ x T y − f ∗ ( y ) f^{**} (x) = \underset{y \in dom \space f^*}{sup} x^Ty - f^*(y) f∗∗(x)=ydom fsupxTyf(y)
f f f为闭凸函数时, f ∗ ∗ ( x ) = f ( x ) , ∀ x f^{**}(x) = f(x), \forall x f∗∗(x)=f(x),x

对偶

既有等式约束又有不等式约束的一般约束最优化问题: 5.4.1
m i n f ( x ) , min \space f(x), min f(x),
s . t . c i ( x ) = 0 , i ∈ E , s.t. \space c_i(x)=0, i\in \mathcal E, s.t. ci(x)=0,iE,
c i ( x ) ≤ 0 , i ∈ I c_i(x) \leq 0, i \in \mathcal I ci(x)0,iI

拉格朗日函数:
L ( x , λ , ν ) = f ( x ) + Σ i λ i c i ( x ) + Σ j μ j c j ( x ) , j ∈ E , i ∈ I L(x,\lambda, \nu) = f(x) + \Sigma_i \lambda_i c_i(x) + \Sigma_j \mu_j c_j(x), j \in \mathcal E, i \in \mathcal I L(x,λ,ν)=f(x)+Σiλici(x)+Σjμjcj(x),jE,iI

拉格朗日对偶函数:
g ( λ , ν ) = i n f x ∈ R n L ( x , λ , ν ) g(\lambda, \nu) = \underset{x\in R^n}{inf} \space L(x,\lambda, \nu) g(λ,ν)=xRninf L(x,λ,ν)
其中, i n f inf inf为下确界

拉格朗日对偶问题:
m a x λ ≥ 0 , ν g ( λ , ν ) \underset{\lambda \geq 0, \nu}{max} \space g(\lambda, \nu) λ0,νmax g(λ,ν)
将原最小化问题,转化为求原函数下确界最大化问题。

3.ADMM算法[0,11]

对偶问题

原问题: m i n f ( x ) , s . t . A x = b min \space f(x), s.t. \space Ax=b min f(x),s.t. Ax=b
拉格朗日函数: L ( x , y ) = f ( x ) + y T ( A x − b ) L(x,y) = f(x) + y^T (Ax-b) L(x,y)=f(x)+yT(Axb)
对偶函数: g ( y ) = i n f x L ( x , y ) g(y) = \underset{x}{inf} L(x,y) g(y)=xinfL(x,y)
对偶问题: m a x g ( y ) max \space g(y) max g(y)
求解对偶问题得到解 y ∗ y^* y,代入原问题得到解 x ∗ = a r g m i n x L ( x , y ∗ ) x^*= argmin_x L(x,y^*) x=argminxL(x,y)

对偶上升

求解对偶问题
梯度法: y k + 1 = y k + α k ∇ g ( y k ) y^{k+1} = y^k + \alpha^k \nabla g(y^k) yk+1=yk+αkg(yk)
其中, ∇ g ( y k ) = A x − b , x = a r g m i n x L ( x , y k ) \nabla g(y^k) = A x - b, x = argmin_x L(x,y^k) g(yk)=Axb,x=argminxL(x,yk)

对偶上升法:
x k + 1 = a r g m i n x L ( x , y k ) x^{k+1} = argmin_x L(x,y^k) xk+1=argminxL(x,yk)
y k + 1 = y k + α k ( A x k + 1 − b ) y^{k+1} = y^k + \alpha^k (Ax^{k+1} - b) yk+1=yk+αk(Axk+1b)

对偶分解

假定 f f f可分离: f ( x ) = f 1 ( x 1 ) + . . . + f N ( x N ) f(x)=f_1(x_1) + ... + f_N (x_N) f(x)=f1(x1)+...+fN(xN),则 L L L也可分离:
L ( x , y ) = L 1 ( x 1 , y ) + . . . + L N ( x N , y ) − y T b L(x,y) = L_1(x_1,y) + ...+ L_N(x_N,y)-y^T b L(x,y)=L1(x1,y)+...+LN(xN,y)yTb
其中, L i ( x , y ) = f i ( x ) + y T A i x i L_i(x,y) = f_i(x) + y^T A_i x_i Li(x,y)=fi(x)+yTAixi
x x x最小化问题分离为N个最小化问题:
x i k + 1 = a r g m i n x i L i ( x i , y k ) x_i^{k+1} = argmin_{x_i} L_i (x_i, y^k) xik+1=argminxiLi(xi,yk)

对偶分解:
x i k + 1 = a r g m i n x i L i ( x i , y k ) x_i^{k+1} = argmin_{x_i} L_i(x_i,y^k) xik+1=argminxiLi(xi,yk)
y k + 1 = y k + α k ( Σ i A i x i k + 1 − b ) y^{k+1} = y^k + \alpha^k (\Sigma_i A_ix_i^{k+1} - b) yk+1=yk+αk(ΣiAixik+1b)

乘子法

增广拉格朗日函数: L ρ ( x , y ) = f ( x ) + y T ( A x − b ) + ( ρ / 2 ) ∣ ∣ A x − b ∣ ∣ 2 2 L_\rho (x,y) = f(x) + y^T (Ax-b) + (\rho /2) ||Ax-b||_2^2 Lρ(x,y)=f(x)+yT(Axb)+(ρ/2)∣∣Axb22
乘子法:
x k + 1 = a r g m i n x L ρ ( x , y k ) x^{k+1} = argmin_x L_\rho (x,y^k) xk+1=argminxLρ(x,yk)
y k + 1 = y k + ρ ( A x k + 1 − b ) y^{k+1} = y^k + \rho (Ax^{k+1} - b) yk+1=yk+ρ(Axk+1b)
步长 ρ \rho ρ固定

交替方向乘子法

ADMM问题:
m i n f ( x ) + g ( z ) , min \space f(x) + g(z), min f(x)+g(z),
s . t . A x + B z = c s.t. \space Ax+Bz=c s.t. Ax+Bz=c

增广拉格朗日函数:
L ρ ( x , y , z ) = f ( x ) + g ( z ) + y T ( A x + B z − c ) + ( ρ / 2 ) ∣ ∣ A x + B z − c ∣ ∣ 2 2 L_\rho (x,y,z) = f(x) + g(z) + y^T (Ax+Bz-c) + (\rho /2) ||Ax+Bz-c||_2^2 Lρ(x,y,z)=f(x)+g(z)+yT(Ax+Bzc)+(ρ/2)∣∣Ax+Bzc22

ADMM方法:
x k + 1 = a r g m i n x L ρ ( x , z k , y k ) x^{k+1} = argmin_x L_\rho (x,z^k,y^k) xk+1=argminxLρ(x,zk,yk)
z k + 1 = a r g m i n z L ρ ( x k + 1 , z , y k ) z^{k+1} = argmin_z L_\rho (x^{k+1},z,y^k) zk+1=argminzLρ(xk+1,z,yk)
y k + 1 = y k + ρ ( A x k + 1 + B z k + 1 − c ) y^{k+1} = y^k + \rho (Ax^{k+1} + Bz^{k+1} - c) yk+1=yk+ρ(Axk+1+Bzk+1c) 对偶更新

ADMM问题的对偶问题:
m i n c T w + f ∗ ( − A T w ) + g ∗ ( − B T w ) min \space c^T w + f^* (-A^T w) + g^* (-B^Tw) min cTw+f(ATw)+g(BTw)
对ADMM问题使用ADMM求解等价于将DRS算法用于对偶问题上。

[0] 最优化:建模、算法与理论
[1] Markdown 数学符号、公式、花体字母. https://blog.csdn.net/qq_37672864/article/details/127497148
[2] Markdown中添加和使用希腊字母. https://blog.csdn.net/u012028275/article/details/115057245
[3] 范数球、范数锥、多面体,半正定锥. https://blog.csdn.net/Bryant_cqc/article/details/120640939
[4] LR正则化与数据先验分布的关系? - Charles Xiao的回答 - 知乎
https://www.zhihu.com/question/23536142/answer/90135994
[5] 多维高斯分布是如何由一维发展而来的? - 信陵君魏无忌的回答 - 知乎
https://www.zhihu.com/question/36339816/answer/385944057
[6] Tikhonov regularization 吉洪诺夫 正则化. https://www.cnblogs.com/shyang09/p/9120007.html
[7] 坐标下降法. https://bohrium.dp.tech/notebooks/1921409690z
[8] 近似点算子 Proximal Mapping. https://blog.csdn.net/weixin_41024483/article/details/105566558
[9] ADMM算法的详细推导过程是什么? - 覃含章的回答 - 知乎
https://www.zhihu.com/question/309568920/answer/580226096
[10] 凸优化笔记24:ADMM. https://glooow1024.github.io/2020/05/20/optimization/ch24-ADMM/
[11] Alternating Direction Method of Multipliers. https://web.stanford.edu/class/ee364b/lectures/admm_slides.pdf
[12] Douglas–Rachford method and ADMM. https://www.seas.ucla.edu/~vandenbe/236C/lectures/dr.pdf

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/497557.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux:线程的概念

线程:进程内的一个执行分支,他的执行粒度比进程要细 一、通过进程引入线程 以前我们想要一个执行流,我们需要fork一个子进程,然后子进程需要拷贝 take_struct结构体进程地址空间页表文件描述符表…… 而当我们只创建一个task_st…

跟着逻辑先生学习FPGA-实战篇第二课 6-2 LED灯流水灯实验

** 硬件平台:征战Pro开发板 软件平台:Vivado2018.3 仿真软件:Modelsim10.6d 文本编译器:Notepad** 征战Pro开发板资料 链接:https://pan.baidu.com/s/1AIcnaGBpNLgFT8GG1yC-cA?pwdx3u8 提取码:x3u8 1 知识背景 我们在《LED 灯…

Kafka数据迁移全解析:同集群和跨集群

文章目录 一、同集群迁移二、跨集群迁移 Kafka两种迁移场景,分别是同集群数据迁移、跨集群数据迁移。 一、同集群迁移 应用场景: broker 迁移 主要使用的场景是broker 上线,下线,或者扩容等.基于同一套zookeeper的操作。 实践: 将需要新添加…

Ashy的考研游记

文章目录 摘要12.1112.2012.21 DAY1(政治/英语)政治英语 12.22 DAY2(数学/专业课)数学专业课 结束估分 摘要 在24年的12月里,Ashy完成了他的考研冲刺,顺利的结束了他本年度的考研之旅。 在十二月里&#…

【Sentinel】流控效果与热点参数限流

目录 1.流控效果 1.1.warm up 2.2.排队等待 1.3.总结 2.热点参数限流 2.1.全局参数限流 2.2.热点参数限流 2.3.案例 1.流控效果 在流控的高级选项中,还有一个流控效果选项: 流控效果是指请求达到流控阈值时应该采取的措施,包括三种&…

【Unity3D】ECS入门学习(十二)IJob、IJobFor、IJobParallelFor

IJob&#xff1a;开启单个线程进行计算&#xff0c;线程内不允许对同一个数据进行操作&#xff0c;也就是如果你想用多个IJob分别计算&#xff0c;将其结果存储到同一个NativeArray<int>数组是不允许的&#xff0c;所以不要这样做&#xff0c;如下例子就是反面教材&#…

SELECT的使用

目录 1、SQL的查询命令 1.1 SELECT语句 1.2 投影查询 1.3 选择查询 1.4 聚合函数查询 1.5 简单分组查询(GROUP BY) 1.6 内连接查询 1.7 外连接查询 1.8 子查询 1. 无关子查询 2. 相关子查询 带exists的相关子查询&#xff1a; 1.9 集合查询 1. UNION(并) 2. INT…

电池均衡系统

一、电池概况 常见的电池分类&#xff1a;铅酸电池、锂电池、钠离子电池、碱性干电池、纽扣电池等&#xff0c;其中钠离子电池暂未大规模商用。 例如&#xff1a;电动车电池电压通常48v、60v、72v等&#xff0c;汽车启动电池电压&#xff1a;12v 而构成高电压的电池&#xf…

Windows系统下载、部署Node.js与npm环境的方法

本文介绍在Windows电脑中&#xff0c;下载、安装并配置Node.js环境与npm包管理工具的方法。 Node.js是一个基于Chrome V8引擎的JavaScript运行时环境&#xff0c;其允许开发者使用JavaScript编写命令行工具和服务器端脚本。而npm&#xff08;Node Package Manager&#xff09;则…

使用arduino从零做一辆ROS2Jazzy的阿克曼小车---电机驱动篇

本项目采用 Arduino Mega2560 Pro 作为主控开发板&#xff0c;电机驱动器选用 TB6612FNG&#xff0c;并配备了 12V 电源、两个直流减速电机和一个舵机。未来计划通过嘉立创将各模块集成到一个 PCB 板上&#xff0c;提升系统的集成度和稳定性。 本文将聚焦于电机驱动部分&#x…

华为麦芒5(安卓6)termux记录 使用ddns-go,alist

下载0.119bate1 安卓5和6版本,不能换源,其他源似乎都用不了,如果root可以直接用面具模块 https://github.com/termux/termux-app/releases/download/v0.119.0-beta.1/termux-app_v0.119.0-beta.1apt-android-5-github-debug_arm64-v8a.apk 安装ssh(非必要) pkg install open…

图片转成oled使用的字模数据

目录 oled尺寸 如何生成用到的图片 图片转字模 1.首先用Img2Lcd转成bmp单色图片 2.然后用PCtoLCD2002把单色图片转字模 oled尺寸 我使用0.96寸oled模块&#xff0c;对应着的分辨率是128*64&#xff0c;对应着宽高像素比128*64。所以不是随意一张图片就能用的&#xff0c;…

【通信网络】二层基础:03 二层转发基础

1. 二层转发概述 数据链路层&#xff0c;位于OSI模型中的第二层&#xff0c;所以称之为二层。本文我们讨论的转发过程&#xff0c;就是在数据链路层上的转发过程&#xff0c;即二层转发。 1.1 MAC地址 为了唯一的表示一台网络设备&#xff0c;网络设备都有自己的MAC地址。IE…

从0到100:基于Java的大学选修课选课小程序开发笔记(上)

背景 为学生提供便捷的课程选择方式&#xff0c;并帮助学校进行课程管理和资源调配&#xff1b;主要功能包括&#xff1a;课程展示&#xff0c;自主选课&#xff0c;取消选课&#xff0c;后台录入课程&#xff0c;统计每门课程报名情况&#xff0c;导出数据&#xff0c;用户管…

基于Springboot + vue实现的火锅店管理系统

&#x1f942;(❁◡❁)您的点赞&#x1f44d;➕评论&#x1f4dd;➕收藏⭐是作者创作的最大动力&#x1f91e; &#x1f496;&#x1f4d5;&#x1f389;&#x1f525; 支持我&#xff1a;点赞&#x1f44d;收藏⭐️留言&#x1f4dd;欢迎留言讨论 &#x1f525;&#x1f525;&…

基于Svelte 5的体检查询系统前端设计与实现探究

一、引言 1.1 研究背景与意义 在当今数字化时代&#xff0c;医疗信息化已成为医疗行业发展的重要趋势。随着人们对健康的重视程度不断提高&#xff0c;体检作为预防疾病、保障健康的重要手段&#xff0c;其相关信息的管理和查询需求也日益增长。传统的体检查询系统前端往往存…

科大讯飞在线语音合成(流式版)python版

1、进入自己的项目 复制APPID、APISecret、APIKey 2、添加好听发音人 复制vcn参数 3、需要替换代码部分&#xff1a; 换自己喜欢的发声人的参数 换上自己的APPID、APISecret、APIKey 4、完整代码&#xff1a; # -*- coding:utf-8 -*- import _thread as thread import base…

TCP 为什么采用三次握手和四次挥手以及 TCP 和 UDP 的区别

1. TCP 为什么采用三次握手和四次挥手 采用三次握手的原因&#xff1a; 确认双方的收发能力。第一次握手&#xff0c;客户端发送 SYN 报文&#xff0c;告诉服务器自身具备发送数据的能力&#xff0c;第二次握手&#xff0c;服务器回应 SYN ACK 报文&#xff0c;表名自己既能…

python-Flask:SQLite数据库路径不正确但是成功访问到了数据库,并对表进行了操作

出现了这个问题&#xff0c;就好像是我要去找在南方的人&#xff0c;然后我刚好不分南北&#xff0c;我认为的方向错了&#xff0c;实则方向对了。 在我针对复盘解决&#xff1a;sqlite3.OperationalError: unrecognized token: “{“-CSDN博客这个内容的时候&#xff0c;又出现…

2024-12-29-sklearn学习(25)无监督学习-神经网络模型(无监督) 烟笼寒水月笼沙,夜泊秦淮近酒家。

文章目录 sklearn学习(25) 无监督学习-神经网络模型&#xff08;无监督&#xff09;25.1 限制波尔兹曼机25.1.1 图形模型和参数化25.1.2 伯努利限制玻尔兹曼机25.1.3 随机最大似然学习 sklearn学习(25) 无监督学习-神经网络模型&#xff08;无监督&#xff09; 文章参考网站&a…