TensorRT量化第二课:对称量化与非对称量化

目录

  • 模型量化原理
    • 注意事项
    • 一、2023/3/30更新
    • 前言
    • 1.引出问题
      • 1.1 问题
      • 1.2 代码实现
        • 1.2.1 初始化输入数组
        • 1.2.2 Scale计算
        • 1.2.3 量化截断
        • 1.2.4 反量化
        • 1.2.5 完整代码
    • 2. 非对称量化
      • 2.1 动态范围量化
      • 2.2 代码实现
      • 2.3 原理分析
        • 2.3.1 动态量化范围
        • 2.3.2 偏移量Z
        • 2.3.3 图例分析
    • 3.对称量化
      • 3.1 相关知识
      • 3.2 代码实现
      • 3.3 思考
    • 4.对称量化 vs. 非对称量化
    • 总结

模型量化原理

注意事项

一、2023/3/30更新

新增对称量化方法处理量化过程中值域截断问题

前言

手写AI推出的全新TensorRT模型量化课程,链接。记录下个人学习笔记,仅供自己参考。

本次课程为第二课,主要讲解量化的具体方法。课程有些抽象呀🤣,自己结合ChatGPT学习了一下。

课程大纲可看下面的思维导图

在这里插入图片描述

1.引出问题

1.1 问题

正常模型量化的流程是计算Scale=>量化=>截断=>反量化,上节课中提出这样做会存在一个问题,那就是量化截断操作后,反量化获取的值与原来的值有一个较大的误差,这将对模型的精度影响非常大。

量化的流程中的计算公式如下所示:
S c a l e = ( R m a x − R m i n ) ( Q m a x − Q m i n ) Q = R o u n d ( R S c a l e ) Q = C l i p ( Q , − 128 , 127 ) R ′ = Q ∗ S c a l e (1) \begin{aligned} Scale &= \frac{(Rmax-Rmin)}{(Qmax-Qmin)} \\ Q &= Round(\frac{R}{Scale}) \\ Q &= Clip(Q,-128,127) \\ R' &= Q * Scale \end{aligned} \tag1 ScaleQQR=(QmaxQmin)(RmaxRmin)=Round(ScaleR)=Clip(Q,128,127)=QScale(1)

现在假设有一个数组[ 1.6243454 -0.6117564 -0.5281718]为float32类型,需要将其量化到int8类型即[-128 127]范围,首先计算下Scale的值为0.008769,然后计算下其量化的结果为[185. -70. -60.],由于量化的结果超出了int类型[-128 127]的范围,所以进行截断,截断后的结果为[127. -70. -60.],利用阶段后的结果进行反量化后的值为[ 1.1136664 -0.6138319 -0.52614164],原始值和量化反量化恢复的值相差[-0.510679 -0.00207549 0.00203013],可以看到数组中第一个数值相差了将近原数值的三分之一,这样量化后的结果肯定是不行的。需要解决方法。

1.2 代码实现

1.2.1 初始化输入数组

代码如下:

import numpy as npif __name__ == "__main__":np.random.seed(1)data_float32 = np.random.randn(3).astype('float32')int_max = 127int_min = -128print(f"input = {data_float32}")

1.2.2 Scale计算

代码如下:

def scale_cal(x, int_max, int_min):scale = (x.max() - x.min()) / (int_max - int_min)return scale

1.2.3 量化截断

代码如下:

import numpy as npdef saturete(x, int_max, int_min):return np.clip(x, int_min, int_max)def quant_float_data(x, scale, int_max, int_min):xq = saturete(np.round(x/scale), int_max, int_min)return xq

1.2.4 反量化

代码如下:

def dequant_data(xq, scale):x = ((xq)*scale).astype('float32')return x

1.2.5 完整代码

完整示例代码如下:

import numpy as npdef saturete(x, int_max, int_min):return np.clip(x, int_min, int_max)def scale_cal(x, int_max, int_min):scale = (x.max() - x.min()) / (int_max - int_min)return scaledef quant_float_data(x, scale, int_max, int_min):xq = saturete(np.round(x/scale), int_max, int_min)return xqdef dequant_data(xq, scale):x = ((xq)*scale).astype('float32')return xif __name__ == "__main__":np.random.seed(1)data_float32 = np.random.randn(3).astype('float32')int_max = 127int_min = -128print(f"input = {data_float32}")scale= scale_cal(data_float32, int_max, int_min)print(f"scale = {scale}")data_int8 = quant_float_data(data_float32, scale, int_max, int_min)print(f"quant_result = {np.round(data_float32 / scale)}")print(f"saturete_result = {data_int8}")data_dequant_float = dequant_data(data_int8, scale)print(f"dequant_result = {data_dequant_float}")print(f"diff = {data_dequant_float - data_float32}")

输出如下:

input = [ 1.6243454 -0.6117564 -0.5281718]
scale = 0.008769026924582089
quant_result = [185. -70. -60.]
saturete_result = [127. -70. -60.]
dequant_result = [ 1.1136664  -0.6138319  -0.52614164]
diff = [-0.510679   -0.00207549  0.00203013]

2. 非对称量化

2.1 动态范围量化

首先来看下解决方案,通过引入偏移量Z可以解决。具体公式如下:

S c a l e = ( R m a x − R m i n ) ( Q m a x − Q m i n ) Z = Q m a x − R o u n d ( R m a x S c a l e ) Q = R o u n d ( R S c a l e + Z ) Q = C l i p ( Q , − 128 , 127 ) R ′ = ( Q − Z ) ∗ S c a l e (2) \begin{aligned} Scale &= \frac{(Rmax-Rmin)}{(Qmax-Qmin)} \\ Z &= Qmax - Round(\frac{Rmax}{Scale}) \\ Q &= Round(\frac{R}{Scale} + Z) \\ Q &= Clip(Q,-128,127) \\ R' &= (Q -Z) * Scale \end{aligned} \tag2 ScaleZQQR=(QmaxQmin)(RmaxRmin)=QmaxRound(ScaleRmax)=Round(ScaleR+Z)=Clip(Q,128,127)=(QZ)Scale(2)

我们先来看下这种解决方案下的反量化结果,首先输入数组不变为[ 1.6243454 -0.6117564 -0.5281718],还是需要将其量化到int8范围即[-128 127],scale还是0.008769,z根据公式计算为-58,量化后的结果为[127 -128 -118],反量化后的结果为[ 1.62227 -0.6138319 -0.52614164],偏差为[-0.00207543 -0.00207549 0.00203013],可以看到加入了Z偏移量后的误差明显减小了。

2.2 代码实现

完整示例代码如下:

import numpy as npdef saturete(x, int_max, int_min):return np.clip(x, int_min, int_max)def scale_z_cal(x, int_max, int_min):scale = (x.max() - x.min()) / (int_max - int_min)z = int_max - np.round((x.max() / scale))return scale, zdef quant_float_data(x, scale, z, int_max, int_min):xq = saturete(np.round(x/scale + z), int_max, int_min)return xqdef dequant_data(xq, scale, z):x = ((xq - z)*scale).astype('float32')return xif __name__ == "__main__":np.random.seed(1)data_float32 = np.random.randn(3).astype('float32')int_max = 127int_min = -128print(f"input = {data_float32}")scale, z = scale_z_cal(data_float32, int_max, int_min)print(f"scale = {scale}")print(f"z = {z}")data_int8 = quant_float_data(data_float32, scale, z, int_max, int_min)print(f"quant_result = {data_int8}")data_dequant_float = dequant_data(data_int8, scale, z)print(f"dequant_result = {data_dequant_float}")print(f"diff = {data_dequant_float - data_float32}")

输出如下:

input = [ 1.6243454 -0.6117564 -0.5281718]
scale = 0.008769026924582089
z = -58.0
quant_result = [ 127. -128. -118.]
dequant_result = [ 1.62227    -0.6138319  -0.52614164]
diff = [-0.00207543 -0.00207549  0.00203013]

2.3 原理分析

2.3.1 动态量化范围

上述方法通常被称为动态范围量化(Dynamic Range Quantization)中的校准过程(Calibration)。它属于非对称量化的一种形式。由于量化参数(比如量化因子Scale)是通过数据集的统计量来估计的,因此称之为动态范围量化。它能够减少量化误差的原因是,引入了一个偏移量Z,使得量化后的数值在更小的范围内,进而减小量化误差。同时,偏移量Z的计算使得量化后的最大值Rmax落在了Qmax上,保证了最大值的精度。

2.3.2 偏移量Z

我们来分析下为什么偏移量Z的定义是 Z = Q m a x − R o u n d ( R m a x S c a l e ) Z = Qmax - Round(\frac{Rmax}{Scale}) Z=QmaxRound(ScaleRmax)(from ChatGPT,不知道是否准确🤔)

偏移量Z的公式来源于将Rmax和Rmin映射到量化后的Qmax和Qmin的过程中,可能会出现浮点数误差带来的截断误差,进而导致量化误差的累积(也就是截断误差带来的影响)。为了消除这种误差,我们引入了偏移量Z,即将Rmax映射到Qmax所需要的偏移量。那么,这个偏移量Z应该怎么计算呢?推导过程如下:

首先,将实数Rmax映射到量化后的整数Qmax的公式为:
Q m a x = ⌊ R m a x S c a l e ⌋ Qmax=\lfloor\frac{Rmax}{Scale}\rfloor Qmax=ScaleRmax
其中Scale表示量化的尺度,即:
S c a l e = R m a x − R m i n Q m a x − Q m i n Scale = \frac{Rmax-Rmin}{Qmax-Qmin} Scale=QmaxQminRmaxRmin
类似的,我们将Rmin映射到Qmin:
Q m i n = ⌊ R m i n S c a l e ⌋ Qmin=\lfloor\frac{Rmin}{Scale}\rfloor Qmin=ScaleRmin
于是,我们可以将Qmax和Qmin带入上面的Scale公式中,得到:
S c a l e = R m a x − R m i n ⌊ R m a x S c a l e ⌋ − ⌊ R m i n S c a l e ⌋ Scale=\frac{Rmax-Rmin}{\lfloor\frac{Rmax}{Scale}\rfloor-\lfloor\frac{Rmin}{Scale}\rfloor} Scale=ScaleRmaxScaleRminRmaxRmin
注意到这个Scale是一个带有floor函数的分式,其中floor函数会对Rmax和Rmin进行取整操作。这个取整操作带来的误差是我们想要消除的。我们假设将Rmax映射到Qmax需要的偏移量为Z,则:
Q m a x = ⌊ R m a x S c a l e + Z ⌋ Qmax=\lfloor\frac{Rmax}{Scale}+Z\rfloor Qmax=ScaleRmax+Z
将Scale带入上式中,得到:
Q m a x = ⌊ R m a x R m a x − R m i n ⌊ R m a x S c a l e ⌋ − ⌊ R m i n S c a l e ⌋ + Z ⌋ Qmax=\lfloor\frac{Rmax}{\frac{Rmax-Rmin}{\lfloor\frac{Rmax}{Scale}\rfloor-\lfloor\frac{Rmin}{Scale}\rfloor}}+Z\rfloor Qmax=ScaleRmaxScaleRminRmaxRminRmax+Z
对上式进行简化:
Q m a x = ⌊ R m a x ⌊ R m a x S c a l e ⌋ − R m a x [ R m i n S c a l e ⌋ R m a x − R m i n + Z ⌋ Qmax=\lfloor\frac{Rmax\lfloor\frac{Rmax}{Scale}\rfloor-Rmax[\frac{Rmin}{Scale}\rfloor}{Rmax-Rmin}+Z\rfloor Qmax=RmaxRminRmaxScaleRmaxRmax[ScaleRmin+Z
由于我们希望Z是一个整数,因此我们对Z进行取整,得到:
Z = Q m a x − ⌊ R m a x ⌊ R m a x S c a l e ⌋ − R m a x [ R m i n S c a l e ⌋ R m a x − R m i n ⌋ Z = Qmax - \lfloor\frac{Rmax\lfloor\frac{Rmax}{Scale}\rfloor-Rmax[\frac{Rmin}{Scale}\rfloor}{Rmax-Rmin}\rfloor Z=QmaxRmaxRminRmaxScaleRmaxRmax[ScaleRmin
将Scale代入其中,得到:
Z = Q m a x − ⌊ R m a x S c a l e ⌋ Z= Qmax - \lfloor\frac{Rmax}{Scale}\rfloor Z=QmaxScaleRmax
即:
Z = Q m a x − R o u n d ( R m a x S c a l e ) Z = Qmax - Round(\frac{Rmax}{Scale}) Z=QmaxRound(ScaleRmax)
其中, Q m a x Qmax Qmax是量化后的取值范围的最大值, R o u n d ( R m a x S c a l e ) Round(\frac{Rmax}{Scale}) Round(ScaleRmax) R m a x Rmax Rmax映射为量化后取值范围的最大值后再取整的结果。实际上,偏移量Z就是将实数空间的最大值 R m a x Rmax Rmax与量化空间的最大值 Q m a x Qmax Qmax对齐的结果。

2.3.3 图例分析

说下我个人的理解吧(不一定正确)。简单来说原本Rmax映射回Qmax通过Scale,但是存在截断操作,我们考虑将映射放在二维平面给考虑,其实就是一条直线即 Q = k R Q=kR Q=kR,其中 k k k为斜率其值为 1 S c a l e \frac{1}{Scale} Scale1。由于R通过k映射回Q会有截断操作导致误差,现在考虑去减小这个误差,也就是通过偏移量来实现即 Q = k R + b Q=kR+b Q=kR+b,其中 b b b为截距也就是偏移量 Z Z Z

通过引入偏移量Z,我们可以将量化后的数值范围向中心偏移,从而在整个量化数值范围内分布得更加均匀,减小了误差得积累。虽然最终仍然会有截断操作,但是这种偏移可以在整个数值分布上起到更好得平衡作用,从而减小了误差的影响。(from ChatGPT)

从下图分析,绿色区域代表int8量化后的取值范围即[-128 127],我们都希望R实数通过Scale映射后的Q值尽量都落在这个区域,这样保证不被截断,反量化时不存在截断误差。

现在输入考虑之前的三个实数即R为[ 1.6243454 -0.6117564 -0.5281718],其中黑色的线代表常规量化即 Q = R S c a l e Q=\frac{R}{Scale} Q=ScaleR,可以看到实数1.62映射到Q时超出其范围将被截断,从而导致误差。红色的线代表非对称量化即加上偏移量Z的结果 Q = R S c a l e + Z Q=\frac{R}{Scale}+Z Q=ScaleR+Z,可以看到偏移量的引入导致映射直线向下平移了Z个单位,导致实数1.62映射到Q时无需截断,减少了量化产生的误差。

在这里插入图片描述

说明:可以将偏移量Z理解为对截断误差的补偿,将误差向中心偏移,从而使得整个量化的结果在一定程度上能够更加集中在实际取值范围内,减少截断误差的影响。可以观察R的三个实数[-0.6 -0.5 1.6],在常规量化中[-0.6 -0.5]都正常落在Q取值范围内即[-128 127],但是1.6超出范围,可以从数据分布来进行分析,[-0.6 -0.5 1.6]的R实数中心点不是在0处的,而映射Q的取值范围[-128 127]的中心点是接近0的,此时要对Q进行一定的修正,使其数据向R实数的中心点进行偏移,更加接近R的数据分布。在非对称量化中,Z的引入使得取值范围向中心点偏移,Z=-58,实际上Q的取值范围变到了[-70 185],能够满足[-0.6 -0.5 1.6]通过Scale映射回到Q的分布(个人想法😝)。

3.对称量化

3.1 相关知识

对称量化是一种量化方法,其中量化步长在正负之间对称,即使得所有值域范围内的数据点都在对称轴的两侧,这样可以避免出现由于量化导致的误差。(from ChatGPT)

在之前的非对称量化中我们通过引入偏移量 Z Z Z的方式解决量化过程中值域截断的问题,那么还有没有其它的方式呢?

还是考虑原始数组[1.6243454 -0.6117564 -0.5281718],需要将其量化到int8范围即[-128,127],考虑对称量化,我们在原始数组中虚拟添加一个值,该值的大小为原始数组R中绝对值最大值的那个数的相反数(有点拗口🤣),为了实现对称嘛,例如上述数组中添加的值就是-1.6243454,那么现在的输入数组就变成了[-1.6243454 -0.6117564 -0.5281718 1.6243454],同时考虑对称,我们将其量化到[-127,127]范围内(实际工程量化用的时候不会考虑-128),此时的Scale计算如下:
S c a l e = R m a x − R m i n Q m a x − Q m i n = ∣ R m a x ∣ Q m a x Scale = \frac{Rmax-Rmin}{Qmax-Qmin}=\frac{|Rmax|}{Qmax} Scale=QmaxQminRmaxRmin=QmaxRmax
Q m a x Qmax Qmax不用讲, R m a x Rmax Rmax为什么加绝对值呢?因为要确保 R m a x Rmax Rmax为添加虚拟值后的最大值(说人话),比如 R R R全为负数的情况。此时我们再通过公式计算偏移量 Z Z Z发现其值为0.
Z = Q m a x − R o u n d ( R m a x S c a l e ) = 0 Z = Qmax - Round(\frac{Rmax}{Scale}) = 0 Z=QmaxRound(ScaleRmax)=0
那么最终对称量化的计算公式如下:
S c a l e = ∣ R m a x ∣ ∣ Q m a x ∣ Q = R o u n d ( R S c a l e ) Q = C l i p ( Q , − 127 , 127 ) R ′ = Q ∗ S c a l e (3) \begin{aligned} Scale &= \frac{|Rmax|}{|Qmax|} \\ Q &= Round(\frac{R}{Scale}) \\ Q &= Clip(Q,-127,127) \\ R' &= Q * Scale \end{aligned} \tag3 ScaleQQR=QmaxRmax=Round(ScaleR)=Clip(Q,127,127)=QScale(3)

3.2 代码实现

完整示例代码如下:

import numpy as npdef saturete(x):return np.clip(x, -127, 127)def scale_cal(x):max_val = np.max(np.abs(x))return max_val / 127def quant_float_data(x, scale):xq = saturete(np.round(x/scale))return xqdef dequant_data(xq, scale):x = (xq * scale).astype('float32')return xif __name__ == "__main__":np.random.seed(1)data_float32 = np.random.randn(3).astype('float32')print(f"input = {data_float32}")scale = scale_cal(data_float32)print(f"scale = {scale}")data_int8 = quant_float_data(data_float32, scale)print(f"quant_result = {data_int8}")data_dequant_float = dequant_data(data_int8, scale)print(f"dequant_result = {data_dequant_float}")print(f"diff = {data_dequant_float - data_float32}")

输出如下:

input = [ 1.6243454 -0.6117564 -0.5281718]
scale = 0.012790121431425801
quant_result = [127. -48. -41.]
dequant_result = [ 1.6243454 -0.6139258 -0.524395 ]   
diff = [ 0.         -0.00216943  0.00377679]

3.3 思考

在tensorRT中INT8量化使用的方法就是对称量化。对称量化方法不用计算偏移量 Z Z Z,计算量小,是一种非饱和量化。如下图所示,红色的区域由于对称量化被浪费掉,没有做真实值的一个表达。

在这里插入图片描述

在对称量化中还存在一个问题,比如目前原始数组中有1000个点分布在[-1,1]之间,突然有个离散点分布在100处,此时做对称量化时Scale会被调整得很大,使得上下限超出[-127,127]的范围,从而导致量化误差增大,对精度的影响也会相应增大。

因此,在对称量化中,需要谨慎处理数据中的极端值,以免对量化精度造成不利影响,下节课将会介绍利用直方统计图去除离散点,让max的选取更加的合理,让我们一起期待下次的课程吧😍

4.对称量化 vs. 非对称量化

在这里阐述下对称量化和非对称量化的优缺点(from chatGPT)

对称量化的优点

  • 没有偏移量,可以降低计算量
  • 分布在正负半轴的权值数值均可被充分利用,具有更高的利用率;
  • 对于深度学习模型,可以使用int8类型的乘法指令进行计算,加快运算速度;
  • 能够有效的缓解权值分布在不同范围内的问题。

对称量化的缺点

  • 对于数据分布在0点附近的情况,量化的位数可能不够;
  • 数据分布的范围过于分散,如果缺乏优秀的统计方法和规律,会导致量化效果不佳。

非对称量化的优点

  • 通过偏移量可以保证量化数据分布在非负数范围内,可以使得分辨率更高;
  • 适合数据分布范围比较集中的情况。

非对称量化的缺点

  • 对于偏移量的计算需要额外的存储空间,增加了内存占用;
  • 偏移量计算需要加减运算,会增加运算的复杂度;
  • 对于深度学习模型,要使用int8类型的乘法指令进行计算,需要进行额外的偏置操作,增加了运算量。

总结

课程有些抽象,逻辑不太清晰,学生朽木😭。希望能多介绍下基础概念,理论相关,原理相关知识。目前自己结合ChatGPT再加上老师讲课感觉还好😎。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/31205.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

领先的项目协作管理软件OpenProject

本文软件由网友 不长到一百四誓不改名 推荐; 什么是 OpenProject ? OpenProject 是一个开源、基于 Web 的项目管理系统,提供了免费的社区版和收费的企业版。OpenProject 拥有完善的文档,API,及丰富的功能,可…

当我问ChatGPT,知识图谱在工程项目管理中有什么用

导读 知识图谱(Knowledge Graph),在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示…

私藏多年的vscode插件分享,让你成为一个高效开发的程序员

vscode插件就像手机里的应用商店一样,可以让我们在高效代码开发、为了美观的代码格式,可以更好的高逼格分享代码等系列功能,本文特意整理了艾编程老师多年来使用vscode的经验,整理的插件集希望对您有帮助! 1、简体中文…

vscode插件(个人正在用的)

插件目录 any-ruleAuto Close TagAuto Rename Tagbackground-coverChinese (Simplified) (简体中文) Language Pack for Visual Studio CodeDebugger for JavaError LensESLintExtension Pack for JavaImage previewIntelliCodeIntelliCode API Usage ExamplesLanguage Support…

程序员请收好:10个非常有用的 Visual Studio Code 插件!

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达 一个插件列表,可以让你的程序员生活变得轻松许多。 以下为译文: 无论你是经验丰富的开发人员还是刚刚开始第一份工作的初级开发人员,…

VSCode好用的插件

文章の目录 1、Chinese (Simplified) (简体中文) Language Pack(汉化vscode 必备)2、Bracket Pair Colorizer(给代码中的括号添加亮色,便于区分)3、Auto Close Tag(自动补全标签,必备&#xff0…

30个实用VSCode 插件,让你的开发效率倍增!

1. Image preview 通过此插件,当鼠标悬浮在图片的链接上时,可以实时预览该图片,除此之外,还可以看到图片的大小和分辨率。 2. Auto Rename Tag 使用该插件,可以在重命名一个 HTML 标签时,自动重命名 HTML…

跟我做一个可以聊天的 Visual Studio Code 插件

你每天有在用 Visual Studio Code 吗? 根据面向程序开发人员的时间跟踪工具 WakeTime 统计 , 在 2020 年全球开发者使用 Visual Studio Code 的时间合共 1800 万小时 。这是一个非常惊人的数字 。 你有想过开发一个 Visual Studio Code 插件吗 &#xff…

vscode常用的9个插件,推荐给你们

1. Settings Sync 开发必备神器之一!可以帮助你在不同的设备之间同步vscode所有的配置、插件!!! 虽然配置有好几个步骤,但是一旦配置好了之后使用非常的方便,只需要记住快速上传和快速下载的快捷键即可。甚至你可以选…

VS Code实用插件推荐

一、外观优化插件 1.1 Chinese 中文插件包,看起来清晰明了,安装完重启vs即可生效; 1.2 Better Comments 一款美化注释的插件,可以根据不同种类的注释,显示不同的颜色,一目了然。还可以通过扩展配置文件…

VSCode插件推荐

1. VSCode汉化包插件 :Chinese (Simplified) (简体中文) Language VSCode汉化包,原始默认是英文的所以我们需要下一个中文插件。 2. VSCode自动补全标签 :Auto Close Tag Auto Close Tag 对Html或Xml文件自动创建结束标签; 如在…

VScode神仙插件,程序员必备

前言 Visual Studio Code(VS Code)是微软2015年推出的一个轻量但功能强大的源代码编辑器,基于 Electron 开发,支持 Windows、Linux 和 macOS 操作系统。它内置了对JavaScript,TypeScript和Node.js的支持并且具有丰富的其它语言和扩展的支持&a…

VSCode提高代码开发效率插件:(一)差异对比插件

写代码经常会用到代码对比的功能,以前常用独立的软件Merge,Vscode中也有类似功能的插件。之前开发单片机一直用的Keil,但是用Keil编译去掉BroseInformation速度提上来了但是没法函数跳转了。 Vscode可以解决这个问题了。SourceInsight之类的代…

VScode 常用插件推荐,非常全面

文章目录 一、主题美化PeacockMaterial ThemeMaterial Theme IconsbackgroundPower ModeRainbow CSVIndent RainbowPolacode 二、检查格式化ESLintPrettier - Code formatterPrettier ESLintStylelint 三、编程美化Document ThisBetter CommentsRainbow Brackets 四、集成插件D…

android 新浪微博客户端的表情功能的实现

这是一篇好文章,我转来收藏,技术的最高境界是分享。 最近在搞android 新浪微博客户端,有一些心得分享弄android客户端表情功能可以用以下思路1.首页把新浪的表情下载到本地一文件夹种,表情图片的命名要用新浪微博表情原来的命名比…

夸克两年SVIP试水

那就这样喽 以后不用了就是🙄 然后还有另外一个目的就是 影视资源可以直接上传,然后就可能不会那么卡 可是现在很多资源网站都有视频直链加密,你点击了云收藏他有很大几率是不会收藏成功的(e.g.这个m3u8链接只有你这个IP才能用&a…

mix2 android 8.0,小米MIX2终于用上安卓8.0,米粉欢呼:MIUI9完美了

原标题:小米MIX2终于用上安卓8.0,米粉欢呼:MIUI9完美了 安卓8.0的系统出来啦!部分小米用户已经可以用上了基于安卓8.0系统的MIUI9 7.12.18体验版,据说速度“快到飞起”! 安卓8.0版本重点是提升了电池续航能…

Android模仿新浪微博(主页微博,评论界面)

主页微博: 获取当前登录用户及其所关注(授权)用户的最新微博接口:http://open.weibo.com/wiki/2/statuses/friends_timeline 代码详解: 1.异步get请求数据,由于数据中带图片,故需要多线程管理…

音视频技术开发周刊 | 291

每周一期,纵览音视频技术领域的干货。 新闻投稿:contributelivevideostack.com。 谷歌将 AI 芯片团队并入云计算部门 追赶微软和亚马逊 OpenAI推出的ChatGPT获得一定成功,微软是OpenAI的重要投资者,它将ChatGPT植入必应搜索&#…

生成式AI年度观察 | 技术及产品快速迭代,生成内容质量及安全性仍需提升

原文链接: https://mp.weixin.qq.com/s/ED9mo5pxuDdyZmrFe-u7qw 一、2022年生成式AI发展观察 1.扩散模型和ChatGPT能力出众,多种生成模态涌现 扩散模型Diffusion(以下简称“扩散模型”)和神经网络模型CLIP结合,文生图实…