信息与信源熵

0x01 三个定义

信息

指各个事物运动的状态及状态变化的方式。人们从对周围世界的观察得到的数据中获得信息。信息是抽象的意识或知识,它是看不见、摸不到的。当由人脑的思维活动产生的一种想法仍被存储在脑子里时,它就是一种信息。

消息

指包含信息的语言、文字和图像等。消息是具体的,它载荷信息,但它不是物理性的。

信源

是向通信系统提供消息 u u u的人和机器。信源输出的是以符号形式出现的具体消息,它载荷信息。信源输出的消息可归纳为两类:离散消息和连续消息。前者如字母、汉字等,后者如语音、在时间上连续变化的电参数等。

0x02 自信息量

信源 X X X,其概率空间为 [ X P ] = [ a 1 a 2 … a n p ( a 1 ) p ( a 2 ) … p ( a n ) ] \begin{bmatrix}X\\P\end{bmatrix}=\begin{bmatrix}a_1 & a_2 & \dots & a_n\\p(a_1) & p(a_2) & \dots & p(a_n)\end{bmatrix} [XP]=[a1p(a1)a2p(a2)anp(an)],这是信源固有的,但是信源在某时刻到底会发出什么符号,接受者是不能确定的,只有当信源发出的符号通过信道的传输到达接收端后,收信者才能得到信息,消除不确定性。符号出现的概率不同,其不确定性就不同。符号出现的概率与信息量是单调递减关系。

信息量可粗略地看作消除的不确定性的大小,一段消息消除的不确定性越大,其所载荷的信息量就越大。

定义具有概率为 p ( x i ) p(x_i) p(xi)的符号 x i x_i xi的自信息量为
I ( x i ) = − log ⁡ p ( x i ) I(x_i)=-\log p(x_i) I(xi)=logp(xi)
  自信息量的单位与所用的对数底有关。在信息论中常用的是2,此时信息量的单位为比特(bit);若取自然对数,则单位为奈特(nat);若以10为底,则单位为笛特(det);
  自信息量具有以下特性:
  (1) p ( x i ) = 1 p(x_i)=1 p(xi)=1 I ( x i ) = 0 I(x_i)=0 I(xi)=0;
  (2) p ( x i ) = 0 p(x_i)=0 p(xi)=0 I ( x i ) = ∞ I(x_i)=\infty I(xi)=;
  (3) 非负性;
  (4) 单调递减性:若 p ( x 1 ) < p ( x 2 ) p(x_1)<p(x_2) p(x1)<p(x2),则 I ( x 1 ) > I ( x 2 ) I(x_1)>I(x_2) I(x1)>I(x2);
  (5) 可加性:若有两个符号 x i x_i xi y j y_j yj同时出现,可用联合概率 p ( x i , y j ) p(x_i,y_j) p(xi,yj)来表示,这时的自信息量为 I ( x i , y j ) = − log ⁡ p ( x i , y j ) I(x_i,y_j)=-\log p(x_i,y_j) I(xi,yj)=logp(xi,yj),当 x i x_i xi y j y_j yj相互独立时,有 p ( x i , y j ) = p ( x i ) p ( y j ) p(x_i,y_j)=p(x_i)p(y_j) p(xi,yj)=p(xi)p(yj),那么就有 I ( x i , y j ) = I ( x i ) + I ( y j ) I(x_i,y_j)=I(x_i)+I(y_j) I(xi,yj)=I(xi)+I(yj)

0x03 离散信源熵

信源熵

自信息量 I ( x i ) I(x_i) I(xi)只是表征信源中各个符号 x i x_i xi的不确定度,而一个信源总是包含多个符号消息,各个符号消息又按概率空间的先验概率分布,因而各个符号的自信息量就不同。所以自信息量 I ( x i ) I(x_i) I(xi)是与概率分布有关的一个随机变量,不能作为信源总体的信息量度。对这样的随机变量只能采取求平均的方法。
  假设一个不透明的布袋里放了100个球,其中有80个球是红色的,20个球是白色的,若随机取出一个球,猜测其颜色。该信源的概率空间为
[ x p ] = [ x 1 x 2 0.8 0.2 ] \begin{bmatrix}x\\p\end{bmatrix}=\begin{bmatrix} x_1 & x_2 \\ 0.8 & 0.2\end{bmatrix} [xp]=[x10.8x20.2]
其中 x 1 x_1 x1表示摸出的球是红球, x 2 x_2 x2表示摸出的球是白球。当被告知摸出的球是红球,则获得的信息量是
I ( x 1 ) = − log ⁡ p ( x 1 ) = − log ⁡ 2 0.8 b i t I(x_1)=-\log p(x_1)=-\log_2 0.8 bit I(x1)=logp(x1)=log20.8bit
当被告知摸出的球是白球,获得的信息量是
I ( x 2 ) = − log ⁡ p ( x 2 ) = − log ⁡ 2 0.2 b i t I(x_2)=-\log p(x_2)=-\log_2 0.2 bit I(x2)=logp(x2)=log20.2bit
  在有放回的情况下随机摸取 n n n次,易知平均随机摸取一次所获得的信息量为
1 n [ n p ( x 1 ) I ( x 1 ) + n p ( x 2 ) I ( x 2 ) ] = − [ p ( x 1 ) log ⁡ p ( x 1 ) + p ( x 2 ) log ⁡ p ( x 2 ) ] = − ∑ i = 1 2 p ( x i ) log ⁡ p ( x i ) \begin{align} &\ \ \ \ \ \frac{1}{n}[np(x_1)I(x_1)+np(x_2)I(x_2)]\nonumber \\&=-[p(x_1)\log p(x_1)+p(x_2)\log p(x_2)]\nonumber \\&=-\sum_{i=1}^2p(x_i)\log p(x_i)\nonumber \end{align}      n1[np(x1)I(x1)+np(x2)I(x2)]=[p(x1)logp(x1)+p(x2)logp(x2)]=i=12p(xi)logp(xi)
上述求出的就称为平均自信息量,即平均每个符号能提供的信息量。它只与信源各符号出现的概率有关,可以用来表征信源输出信息的总体特征。他是信源中各个符号自信息量的数学期望。即
E ( I ( X ) ) = ∑ i p ( x i ) I ( x i ) = − ∑ i p ( x i ) log ⁡ p ( x i ) \begin{equation}E(I(X))=\sum_i p(x_i)I(x_i)=-\sum_i p(x_i)\log p(x_i)\end{equation} E(I(X))=ip(xi)I(xi)=ip(xi)logp(xi)
单位为 bit/符号。

类似地,引入信源 X X X平均不确定度的概念,它是在总体平均意义上的信源不确定度。由平均不确定度的定义式(1)与统计物理学中热熵的表示形式相似,且热熵是用来度量一个物理系统的杂乱性(无序性),与这里的不确定度概念相似,所以又把信源的平均不确定度称为信源 X X X的熵。信源熵是在平均意义上来表征信源的总体特性,他是信源 X X X的函数,一般写成 H ( X ) H(X) H(X) X X X是指随机变量的整体(包括概率空间)。信源熵是非负量。

例子

电视屏上约有 500 × 600 = 3 × 1 0 5 500 \times 600 =3 \times 10^5 500×600=3×105个格点,按每点有10个不同的灰度等级考虑,则共能组成 1 0 3 × 1 0 5 10^{3\times10^5} 103×105个不同的画面。按等概计算,平均每个画面可提供的信息量为
H ( x ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) = − log ⁡ 2 1 0 − 3 × 1 0 5 = 3 × 1 0 5 × 3.32 ≈ 1 0 6 b i t / 画面 \begin{align}H(x)&=-\sum_{i=1}^n p(x_i)\log p(x_i) = -\log_2 10^{-3\times 10^5}\nonumber \\&=3\times 10^5 \times 3.32 \approx 10^6 bit/画面\nonumber \end{align} H(x)=i=1np(xi)logp(xi)=log2103×105=3×105×3.32106bit/画面

条件熵

在给定 y j y_j yj条件下, x i x_i xi的条件自信息量为 I ( x i ∣ y j ) I(x_i|y_j) I(xiyj) X X X集合的条件熵 H ( X ∣ y j ) H(X|y_j) H(Xyj)
H ( X ∣ y i ) = ∑ i p ( x i ∣ y i ) I ( x i ∣ y i ) H(X|y_i)=\sum_i p(x_i|y_i)I(x_i|y_i) H(Xyi)=ip(xiyi)I(xiyi)
进一步在给定 Y Y Y(即各个 y i y_i yi)条件下, X X X集合的条件熵 H ( X ∣ Y ) H(X|Y) H(XY)定义为
H ( X ∣ Y ) = ∑ j p ( y j ) H ( X ∣ y j ) = ∑ i j p ( y j ) p ( x i ∣ y j ) I ( x i ∣ y j ) = ∑ i j p ( x i , y j ) I ( x i ∣ y j ) \begin{align} H(X|Y)&=\sum_j p(y_j)H(X|y_j) \nonumber \\&=\sum_{ij} p(y_j)p(x_i|y_j)I(x_i|y_j) \nonumber \\&=\sum_{ij} p(x_i,y_j)I(x_i|y_j) \nonumber \end{align} H(XY)=jp(yj)H(Xyj)=ijp(yj)p(xiyj)I(xiyj)=ijp(xi,yj)I(xiyj)
条件熵是在联合符号集合 H ( X , Y ) H(X,Y) H(X,Y)上的条件自信息量的联合概率甲醛统计平均值。条件熵 H ( X ∣ Y ) H(X|Y) H(XY)表示已知 Y Y Y后, X X X的不确定度。

相应地,在给定 X X X(即各个 x i x_i xi)条件下, Y Y Y集合的条件熵 H ( Y ∣ X ) H(Y|X) H(YX)定义为
H ( Y ∣ X ) = ∑ i j p ( x i , y j ) I ( y j ∣ X I ) = − ∑ i j p ( x i , y j ) log ⁡ p ( y j ∣ x i ) H(Y|X)=\sum_{ij} p(x_i,y_j)I(y_j|X_I)=-\sum_{ij}p(x_i,y_j)\log p(y_j|x_i) H(YX)=ijp(xi,yj)I(yjXI)=ijp(xi,yj)logp(yjxi)

联合熵

联合熵是联合符号集合 ( X , Y ) (X,Y) (X,Y)上的每个元素对 ( x i , y j ) (x_i,y_j) (xi,yj)的自信息量的概率加权平均值,定义为
H ( X , Y ) = ∑ i j p ( x i , y j ) I ( x i , y j ) = − ∑ i j p ( x i , y j ) log ⁡ p ( x i , y j ) H(X,Y)=\sum_{ij}p(x_i,y_j)I(x_i,y_j)=-\sum_{ij}p(x_i,y_j)\log p(x_i,y_j) H(X,Y)=ijp(xi,yj)I(xi,yj)=ijp(xi,yj)logp(xi,yj)
联合熵 H ( X , Y ) H(X,Y) H(X,Y)表示 X X X Y Y Y同时发生的不确定度。联合熵 H ( X , Y ) H(X,Y) H(X,Y)与熵 H ( X ) H(X) H(X)及条件熵 H ( Y ∣ X ) H(Y|X) H(YX)之间存在下列关系:
H ( X , Y ) = H ( X ) + H ( Y ∣ X ) = H ( Y ) + H ( X ∣ Y ) H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y) H(X,Y)=H(X)+H(YX)=H(Y)+H(XY)

0x04 条件熵公式推导

设随机变量为明天的天气,晴天为 a 1 a_1 a1,下雨为 a 2 a_2 a2,被告知明天晴天对应的概率和自信息量为 p ( a 1 ) p(a_1) p(a1) I ( a 1 ) I(a_1) I(a1),被告知明天下雨对应的概率和自信息量为 p ( a 2 ) p(a_2) p(a2) I ( a 2 ) I(a_2) I(a2),这是具体事件。而被告知今天的天气和被告知明天的天气分别对应 X X X Y Y Y X X X包含两种情况: x 1 x_1 x1 x 2 x_2 x2 Y Y Y同理。如被告知今天的天气的信息熵 H ( X ) = p ( a 1 ) I ( a 1 ) + p ( a 2 ) I ( a 2 ) H(X)=p(a_1)I(a_1)+p(a_2)I(a_2) H(X)=p(a1)I(a1)+p(a2)I(a2)

信息熵(信源熵)即为平均不确定性、平均信息量

  1. p ( y 1 ∣ x 1 ) p(y_1|x_1) p(y1x1) 代表在今天下雨的前提下,明天下雨的概率,其信息量 I ( y 1 ∣ x 1 ) = − log ⁡ p ( y 1 ∣ x 1 ) I(y_1|x_1)=-\log p(y_1|x_1) I(y1x1)=logp(y1x1)
  2. 已知今天下雨,被告知明天天气,这个事件的信息熵 H ( Y ∣ x 1 ) = p ( y 1 ∣ x 1 ) I ( y 1 ∣ x 1 ) + p ( y 2 ∣ x 1 ) I ( y 1 ∣ x 1 ) H(Y|x_1)=p(y_1|x_1)I(y _1|x_1)+p(y_2|x_1)I(y_1|x_1) H(Yx1)=p(y1x1)I(y1x1)+p(y2x1)I(y1x1)
  3. 已知今天天气,被告知明天天气,这个事件的信息熵 H ( Y ∣ X ) = p ( x 1 ) H ( Y ∣ x 1 ) + p ( x 2 ) H ( Y ∣ x 2 ) H(Y|X)=p(x_1)H(Y|x_1)+p(x_2)H(Y|x2) H(YX)=p(x1)H(Yx1)+p(x2)H(Yx2)

由此可推导出通用公式
H ( Y ∣ X ) = − ∑ i j p ( x i , y i ) log ⁡ p ( y i ∣ x i ) H(Y|X)=-\sum_{ij} p(x_i,y_i)\log p(y_i|x_i) H(YX)=ijp(xi,yi)logp(yixi)

思考

可否定义 H ( y 1 ∣ X ) H(y_1|X) H(y1X)?

即已知今天天气,被告知明天下雨。
H ( Y ∣ X ) = − p ( y 1 ) p ( x 2 ∣ y 1 ) log ⁡ ( y 1 ∣ x 2 ) H ( y 1 ∣ X ) = p ( x 1 ∣ y 1 ) I ( y 1 ∣ x 1 ) + p ( x 2 ∣ y 1 ) I ( y 1 ∣ x 2 ) H(Y|X)=-p(y_1)p(x_2|y_1)\log (y_1|x_2)\\ H(y_1|X)=p(x_1|y_1)I(y_1|x_1)+p(x_2|y_1)I(y_1|x_2) H(YX)=p(y1)p(x2y1)log(y1x2)H(y1X)=p(x1y1)I(y1x1)+p(x2y1)I(y1x2)

0x05 应用实践

给出一个大小为 512 × 512 512\times 512 512×512的Lena图,以 32 × 32 32\times 32 32×32为区块大小,找出Lena图中信息熵最小的区块

在这里插入图片描述

做法

将Lena图以灰度方式读入数组,然后用32×32的滑动窗口遍历该二维数组,计算每个灰度值在此窗口中的频度,算出概率并计算此窗口的信息熵,最后找出信息熵最小的窗口。

实现

import cv2
import math
import numpy as npimage = cv2.imread("./Lena.jpg",0)# 创建滑动窗口
img =  np.lib.stride_tricks.sliding_window_view(np.array(image),(32,32))# 记录灰度值出现频度的数组
grayscale = [0 for i in range(256)]
entropyList = [[0.0 for i in range(len(img))] for i in range(len(img))]# 遍历窗口数组
for x in range(len(img)):for y in range(len(img)):print('窗口[{0}][{1}]'.format(x, y), end='')tmp = img[x][y]# 遍历窗口内数据for k in range(32):for l in range(32):grayscale[tmp[k][l]] += 1# 计算信息熵entropy = 0.0for i in grayscale:if i != 0:entropy += float(i / 1024) * float(math.log(1024 / i, 2))entropyList[x][y] = entropyprint('信息熵为', entropy)# 临时变量归零entropy = 0.0grayscale = [0 for i in range(256)]# 找出最小值和其位置
minScale = 255.0
position = (0, 0)
for i,x in enumerate(entropyList):for j,y in enumerate(x):if y < minScale:minScale = yposition = (i, j)print("\n信息熵最小值:", minScale)
print("位置:", position)# 画出区块边框
for i in range(position[1],position[1] + 32):image[position[0]][i] = 255image[position[0] + 31][i] = 255
for i in range(32):image[i][position[1]] = 255image[i][position[1] + 31] = 255
cv2.imwrite('./output.jpg',image, [int(cv2.IMWRITE_JPEG_QUALITY), 95])

结果

信息熵最小值:1.1805713072324544
位置:(0,133)
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/33416.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python计算图片的信源熵值(信息熵)

附录&#xff1a; from PIL import Image from matplotlib import pyplot as plt import numpy as np import scipy as cp import math image Image.open(rC:\Users\Administrator\Desktop\IMG.jpg) # 读入和显示图像 imagesnp.asarray(image) plt.subplot(211) plt.imshow(im…

【熵的计算】

熵的计算 什么是熵&#xff1f; 定义&#xff1a; 熵是表示随机变量不确定性的度量 简单理解&#xff1a;熵就是混乱程度&#xff0c;一个集合中类别越多&#xff0c;越混乱&#xff0c;属于哪一个类别越不确定。 熵的计算公式&#xff1a; 简单理解一下公式&#xff1a; …

信息熵计算及代码

实验目的:了解离散信源数学模型和信息熵实验内容:以附件中英文文本文件中的内容为来源&#xff0c;构建26个英文字母(区分大小写)为信源符号的数学模型&#xff0c;要求输出字母的概率和该模型的信息熵。要求:请使用自己熟悉的编程语言&#xff0c;完成信源建模&#xff0c;输出…

信息熵的计算与分析

信息熵的计算与分析 一、[实验目的]二、[实验环境]三、[实验原理]四、[实验内容]五、[实验过程]1、二元信源熵函数曲线2、求解离散单符号信源熵3、计算图像一维图像熵 一、[实验目的] 1、掌握离散信源熵的原理和计算方法。 2、熟悉matlab 软件的基本操作&#xff0c;练习使 用…

【chatgpt】解除PDF的password

无论是Adobe Acrobat Pro还是Pdf xchange editor都是一样的&#xff0c;更改安全性就可以了。 把该加密Pdf导入软件&#xff0c;然后点文件&#xff0c;属性&#xff0c;安全性&#xff0c;改成无安全后确定就行了。 pdf是可携带文件格式&#xff0c;亦称“PDF(portable docum…

免费好用的聊天机器人上线,原Openai前员工们创立的Claude

1.下载slack,注册登录。 2.在claude网站上同意Al与你的slack账号相联接。 3.在slack里就可以直接与AI对话了。 4.网页端Mac、苹果手机、安卓都可以&#xff0c;win没试过&#xff0c;应该也可以。 具体的细致操作网上有&#xff0c;也可以留言讨论。 Anthropic是一家总部位…

国内又款智能AI聊天软件-科大讯飞星火模型

介绍 介绍 中国科大讯飞星火GPT聊天软件是一款基于自然语言处理技术的人工智能聊天机器人。它利用了大量的文本数据&#xff0c;通过深度学习模型进行训练&#xff0c;从而实现与用户的智能对话。讯飞星火GPT聊天软件能够理解用户输入的问题或指令&#xff0c;并根据预设的回答…

启英泰伦推出多种智能语音识别照明解决方案,改装简单,成本低

随着人工智能技术的普及&#xff0c;智能家居设备开始走进千家万户。而智能照明系统成为其不可或缺的一部分&#xff0c;占据着举足轻重的地位。 但是照明系统和其他家居设备不一样的是&#xff0c;开发商交房时已布好电路&#xff0c;或用户直接购买精装房&#xff0c;导致改…

让 ChatGPT 更智能,Tauri 带你实现 AI 对话应用

背景 Tauri 和 Electron 都是用于开发跨平台桌面应用程序的工具&#xff0c;因为最近使用ChatGPT在国内环境的确不够友好&#xff0c;又没有一个比较轻量简洁的工具可用&#xff0c;如是想自己造个轻量点的轮子&#xff0c;力争做到代码轻量&#xff0c;界面美观简洁&#xff…

[AI达人特训营第三期] 使用Lora技术用Dreambooth训练国潮风格模型

★★★ 本文源自AlStudio社区精品项目&#xff0c;【点击此处】查看更多精品内容 >>> DreamBooth 介绍 DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation是一种新的文本生成图像(text2image)的“个性化”&#xff08;可适应用…

【社群运营】AI智能对话,打造自动化社群

人工智能大背景下&#xff0c;各行各业都在往智能化发展&#xff0c;无论是办公产品&#xff0c;还是生产器械都选择接入了更加智能的AI来提高生产效率。那么&#xff0c;在日常的社群管理工作中&#xff0c;我们又能否跟上这一波热度&#xff0c;让社群自动化高效运营&#xf…

夏杰语音麦克精灵:智能语音交互升级新体验

对于很多人来说&#xff0c;通过语音声控电视、空调等家电已经不再陌生。 “你好小智&#xff0c;我想听音乐”、“你好小智&#xff0c;播放深圳卫视”……近几年&#xff0c;“小智”逐渐被人认识。是的&#xff0c;它是夏杰语音旗下的一款智能精灵——麦克精灵。它不仅可以…

跟着我学 AI丨ChatGPT 详解

随着人工智能的发展&#xff0c;聊天机器人成为了一个备受关注的领域。而ChatGPT作为其中的佼佼者&#xff0c;其功能和技术水平也越来越受到人们的关注。那么&#xff0c;什么是ChatGPT&#xff1f;它又有哪些优点和限制呢&#xff1f; ChatGPT是一款基于自然语言处理技术开发…

小红书内容种草,曝光渠道分析总结

这是一个内容为王的时代&#xff0c;也是一个内容爆炸的时代。想要在以分享特色的小红书平台&#xff0c;实现内容种草&#xff0c;迅速出圈。今天来马文化传媒就从实操的角度&#xff0c;为大家带来小红书内容种草&#xff0c;曝光渠道分析总结的各种干货&#xff01; 一、什…

小红书达人账号数据分析

文章目录 一、项目背景二、数据预处理1、查看数据2、数据清洗2.1对达人列表进行清洗2.2对涨分榜进行清洗2.3对MCN列表进行清洗2.4对定性变量&#xff08;分类变量&#xff09;进行处理 3、表格处理3.1合并达人列表和涨粉榜 三、分析与数据可视化1、对达人列表进行相关性分析2、…

小红书账号分析丨千瓜指数高的小红书账号是否真的优质?

关键词&#xff1a;千瓜指数、小红书数据、小红书账号分析 达人账号质量是否优质从多个维度衡量&#xff0c;千瓜指数能够客观综合评价达人账号的质量&#xff0c;给到小红书达人一定的参考价值。 那么千瓜指数能够帮助达人什么&#xff1f; 品牌筛选达人会选择更优质的&#x…

GPT逆向:高效解读小红书文案生成器的内部逻辑

文章目录 前言一、什么是小红书文案生成器二、具体步骤总结 前言 关注我的很多同学都会写爬虫。但如果想把爬虫写得好&#xff0c;那一定要掌握一些逆向技术&#xff0c;对网页的JavaScript和安卓App进行逆向&#xff0c;从而突破签名或者绕过反爬虫限制。 最近半年&#xff…

小红书爆款笔记运营攻略

小红书爆款笔记运营攻略 2020-04-14 挖塘人 来源 审核中 修改 现在可以看到很多人手机里有款叫小红书的软件&#xff0c;它致力于打造聚焦生活方式的内容社区&#xff0c;并且凭借“万物皆可种草”红极一时&#xff0c;吸引着一大批年轻用户。 根据官方数据&#xff0c;截…

小红书近期发展动态---预言专家

总结为5件大事情&#xff1a; 事件1&#xff1a;为期三个月打击侵权行动----6月持续到9月 双月计划----清扫爬虫 事件2&#xff1a;APP接口风控提高-----持续 事件3&#xff1a;web端进行摸排升级改版-----7月 事件4&#xff1a;APP增加unidbg|unicorn检测对抗 ----最近一个月内…

教培行业如何在小红书推广 教育机构红书推广上海氖天

品牌打造在教育机构营销中占有重要地位。提升小红书中品牌知名度&#xff0c;需尽量彰显教育机构独特魅力与卓越实力。小红书给教育行业带来新的推广途径&#xff0c;可以把品牌打造的更形象、更简洁&#xff0c;另外用户粘性大、转化率高。接下来&#xff0c;这篇文章就来具体…