【课程总结】Day4:信息论和决策树算法

前言

本章内容主要是学习机器学习中的一个重要模型:决策树,围绕决策树的应用,我们展开了解到:熵的定义、熵的计算、决策树的构建过程(基于快速降熵)、基尼系数等,从而使得我们对决策树有了直观认识。

熵的介绍

因为决策树主要思想是对数据集进行降熵,所以在了解决策树之前,有必要对再做下系统梳理。

熵的定义

  • 简言之,熵就是描述一个系统的混乱程度,熵越高,混乱程度越高。

  • 在一个孤立系统里,如果没有外力做功,其总混乱度(即熵)会不断增大

熵的含义

  • 熵越大,系统越混乱的
  • 熵越小,系统越有序的

例如:

生活上:如果房间(封闭系统)没有定期去打扫(外力引入),屋子会变得越来越乱(熵增),房间越乱熵越大。

工作上**:如果电脑桌面的文件夹(封闭系统)没有施加一定的归类归档工作(外力引入),文件夹及桌面会越来越乱(熵增),文件夹越乱熵越大。

联系到机器学习和信息论中:

  • 熵(Entropy)是信息理论中用于衡量系统无序程度或不确定性的指标。

  • 输出越确定越不混乱,越不确定越混乱。

    例如:考试做选择题,一个选择题有四个A、B、C、D选项;明确知道选择题选哪个,熵越小脑子越不混乱;不知道选哪个,4个选项看着都像,代表熵越大脑子越混乱。

  • 一个模型,在给定输入后,模型能够越肯定得输出结果,那么代表模型是一个好的模型;相反,如果不能确定的给定结果(甚至是瞎猜),那么就不能算做好的模型。

    例如:在鸢尾花的示例中,如果给定一个鸢尾花的数据让机器进行预测是哪种类型。如果模型能够99%确定给定数据是某一个类型,那么这个模型是我们需要的、是好的模型;如果模型给出的结果是1/3概率是1类型,1/3概率是2类型,1/3概率是3类型,那么这个实际是没有意义的。

  • 机器学习的训练过程本质上就是对抗熵的过程。

熵的计算

  • 对于一个包含多个类别的数据集,熵的计算公式为:

    H ( S ) = − ∑ i = 1 c p i log ⁡ 2 ( p i ) H(S) = - \sum_{i=1}^{c} p_i \log_2(p_i) H(S)=i=1cpilog2(pi)
    其中:
    H ( S ) H(S) H(S) 是数据集 S S S 的熵。
    c c c 是数据集中不同类别的数量。
    p i p_i pi 是数据集中第 $i $ 个类别所占比例。

代码实现

"""假定一个系统输出有2种情况:- A:[0.9, 0.1] -0.9概率输出第一种结果,0.1概率输出第二种- B:[0.6, 0.4] -0.6概率输出第一种结果,0.4概率输出第二种- C:[0.5, 0.5] -0.5概率输出第一种结果,0.5概率输出第二种问题:计算以上A、B、C的熵,看哪一种情况熵比较大
"""import numpy as np# 定义计算熵的函数
def entropy(probabilities):return -np.sum(probabilities * np.log2(probabilities))# 定义每种情况的概率分布
A = np.array([0.9, 0.1])
B = np.array([0.6, 0.4])
C = np.array([0.5, 0.5])# 计算每种情况的熵
entropy_A = entropy(A)
entropy_B = entropy(B)
entropy_C = entropy(C)# 输出结果
print("情况A的熵:", entropy_A)
print("情况B的熵:", entropy_B)
print("情况C的熵:", entropy_C)


由上计算可知,C:[0.5, 0.5]的输出越不确定(一半概率输出第一种结果,一半输出第二种结果),所以其越混乱熵越大。

决策树

决策树的概念

决策树是一种用于解决分类问题的算法。它通过树状结构来表示各种决策规则,并根据输入数据的特征逐步进行决策,直到达到最终的预测结果。

一个例子

假设我们有一批如下的数据集:

ID有房者婚姻年收入是否拖欠贷款者
1单身10万
2已婚8万
3离异12万
4已婚15万
5单身6万
6已婚18万
7单身9万
8离异7万
9已婚14万
10单身5万

其中有房者、婚姻、年收入是特征(或者叫属性),是否拖欠贷款者是标签。

如果我们想通过这些特征来预测下一个数据是否会拖欠贷款,那么我们就可以构建一个决策树:

决策树的推理过程:

  • 每个节点都是一个判断过程

  • 直到找到叶子结点没有子节点后,即输出返回

决策树的预测

在Python中sklearn有提供相关的决策树库函数,我们仍然以鸢尾花的分类来使用决策树进行预测。

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.tree import plot_tree
import matplotlib.pyplot as plt# 加载开源库中的iris数据集
X,y = load_iris(return_X_y=True)# 切分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=True, random_state=0) # 1,构建模型
dtc = DecisionTreeClassifier(criterion="entropy")# 2,训练模型
dtc.fit(X=X_train, y=y_train)# 3,预测数据
y_pred = dtc.predict(X=X_test)# 4,查看准确率
acc = (y_pred == y_test).mean()
print("准确率:", acc)# 使用 plot_tree 函数绘制决策树
plt.figure(figsize=(20, 20))
plot_tree(dtc, filled=True)
plt.show()

以上代码执行后,我们借助matplotlib和plot_tree将鸢尾花预测时的决策树以图形化的方式一并输出来了。

决策树的构建

决策树的应用(如上图)是相对比较简单的,而学习的重点所在:如何构建决策树

核心思想

通过快速降熵的方式,找到分割的节点,从而构建树的左右子集

构建步骤
  1. 选择最佳特征:

    • 对所有特征数据进行遍历,计算熵,找到熵降得最小的特征
  2. 分裂数据集:

    • 将数据集根据选择的最佳特征进行分割,分为左边和右边两部分子集。
  3. 递归构建:

    • 对每个子集重复1-2步骤,直到满足停止条件。

    • 停止条件可以是:达到最大深度、节点包含的样本数小于阈值等。

  4. 生成叶节点:

    • 当满足停止条件时,生成叶节点并确定叶节点的类别(或数值)。
构建过程推导(降熵entropy)

在上述的决策树中,我们通过plot_tree打印了已经构建的决策树。其中在根节点:

  • X[2] = 2.35,代表在特征2找到了最佳分裂点,最佳分裂值为1.581
  • Entropy = 1.581,代表此时的熵值为1.581
  • Samples = 120 ,代表此时的样本数量为120个

上述决策树通过代码来模拟决策过程,如下:

# 取特征的个数
n_features = X_train.shape[-1]best_split_feature_idx = None
best_split_feature_value = None
best_split_entropy = float('inf')# 遍历(0, 1, 2, 3)特征
for feature_idx in range(n_features):# ①特征值去重for value in set(X_train[:, feature_idx]):print('[iteration]分裂特征:', feature_idx)print('[iteration]分裂值:', value)# ②分裂值与特征对比,筛选出对应标签列# 左边的标签值y_left = y_train[(X_train[:, feature_idx] <= value)]entropy_left = get_entropy(y_left)print('[iteration]左边标签数据:', y_left)print('[iteration]左边的熵:', entropy_left)# 右边的标签值y_right = y_train[(X_train[:, feature_idx] > value)]entropy_right = get_entropy(y_right)print('[iteration]右边标签数据:', y_right)print('[iteration]右边的熵:', entropy_right)# ③计算融合的熵entropy_all = entropy_left * len(y_left) / len(X_train[:, feature_idx]) \+ entropy_right * len(y_right) / len(X_train[:, feature_idx])print('[iteration]融合的熵:', entropy_all)if entropy_all <= best_split_entropy:best_split_entropy = entropy_allbest_split_feature_idx = feature_idxbest_split_feature_value = valueprint(f'[result]找到了一个最好的分裂点:{best_split_feature_idx}, {best_split_feature_value}, {best_split_entropy}')# 打印左边和右边的样本数量和取值print('[result]左边样本数量:', len(y_left))print('[result]左边样本取值:', np.unique(y_left, return_counts=True))print('[result]右边样本数量:', len(y_right))print('[result]右边样本取值:', np.unique(y_right, return_counts=True))print('------------')

执行结果如下:

将以上输出的日志保存到本地的.log文件中,然后我们筛选出"[result]找到了一个最好的分裂点"这段日志:

通过上图可以看到,对120个数据集的每个特征进行遍历计算熵,计算之后找到了熵最小的分裂点有两个,分别为:

2, 1.7, 0.6713590373778532

3, 0.6, 0.6713590373778532

这两个分裂值的熵均为0.67135,一个是特征2类别下的特征值1.7,一个是特征3类别下的特征值0.6。对比plot_tree打印的决策树:

  • x[2] < = 2.35:即系统选择的是特征2下2.35(即:(1.7+3.0) / 2 = 2.35)这个最佳分裂点。

其过程用图来表示过程如下:

由此可知,决策树整体的运行方式为:

  • 构建模型:通过对训练的数据进行遍历计算,通过计算熵值找到最佳分裂点,然后递归计算直到达到停止条件,同时生成叶节点。

  • 预测数据:传入新的数据进行分类时,决策树进行特征的匹配计算从而找到对应的叶子节点。

    例如:假设需要预测一个[ 1, 2, 3, 4]的样本,那么决策树

    • 首先对特征2(即3)进行判断,发现3小于2.35不成立,向右走;
    • 然后对特征3(即4)进行判断,发现4<=1.75不成立,向右走;
    • 然后对特征2(即3)进行判断,发现3<=4.85成立,向左走;
    • 然后对特征0(即1)进行判断,发现1<=5.95成立,向左走达到叶子节点,返回类别1

构建过程推导(基尼系数gini)
基尼系数的定义

定义:基尼系数(Gini Index)是决策树算法中用于衡量数据集纯度的指标之一。

基尼系数的推导
  • 假设有三个概率[p1, p2, p3]

    • 计算其熵值方法为:

      -( p1 * log2(p1) + p2 * log2(p2) + p3 * log2(p3) ) →

      -p1 * log2(p1) - p2 * log2(p2) - p3 * log2(p3) ) →

      p1 * log2(1/p1) + p2 * log2(1/p2) + p3 * log2(1/p3) ) ~

      p1 * ( 1 - p1) + p2 * (1 - p2) + p3 * (1 - p3)

基尼系数的意义

基尼系数本质上是一种工程上对熵计算的数学化简,可以省去较为麻烦的log2(1/P)的计算,取而代之的变为P * (1-P),从而降低工程的计算代价。

以上决策树改为使用gini系数来进行构建:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.tree import plot_tree
import matplotlib.pyplot as plt# 加载开源库中的iris数据集
X,y = load_iris(return_X_y=True)# 切分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=True, random_state=0) # 1,构建模型
dtc = DecisionTreeClassifier(criterion="gini")# 2,训练模型
dtc.fit(X=X_train, y=y_train)# 3,预测数据
y_pred = dtc.predict(X=X_test)# 4,查看准确率
acc = (y_pred == y_test).mean()
print("准确率:", acc)# 使用 plot_tree 函数绘制决策树
plt.figure(figsize=(20, 20))
plot_tree(dtc, filled=True)
plt.show()

运行结果:

模拟决策树构建过程改为gini系数如下:

import numpy as np# 计算传入的logits概率
# 计算方法:
# 1、对logits进行去重
# 2、计算每个label(例如:0,1,2)出现的次数
# 3、概率=出现次数/总的logits个数
def get_gini(logits = [2, 1, 0, 2, 2, 1, 0, 2]):# 类型转换为np数组logits = np.array(logits)# 获得不同类型的标签数量num_logits = len(logits)# 特殊处理:没有样本或者样本类型都一样,则混乱程度一样,熵为0if num_logits < 2:return 0# 计算对应标签的概率,即:概率 = 出现次数/总的个数probs = np.array([(logits == label).sum() for label in set(logits)]) / len(logits)# 计算系统的熵gini = (probs * (1 - probs)).sum()print("[get_entropy]传入的logits值为:", logits)print("[get_entropy]去重后的label为:", set(logits))print("[get_entropy]每个lable的概率为:", probs)print("[get_entropy]计算得到的gini为:", gini)return gini# 取特征的个数
n_features = X_train.shape[-1]best_split_feature_idx = None
best_split_feature_value = None
best_split_gini = float('inf')# 遍历(0, 1, 2, 3)特征
for feature_idx in range(n_features):# ①特征值去重for value in set(X_train[:, feature_idx]):print('[iteration]分裂特征:', feature_idx)print('[iteration]分裂值:', value)# ②分裂值与特征对比,筛选出对应标签列# 左边的标签值y_left = y_train[(X_train[:, feature_idx] <= value)]gini_left = get_gini(y_left)print('[iteration]左边标签数据:', y_left)print('[iteration]左边的熵:', gini_left)# 右边的标签值y_right = y_train[(X_train[:, feature_idx] > value)]gini_right = get_gini(y_right)print('[iteration]右边标签数据:', y_right)print('[iteration]右边的熵:', gini_right)# ③计算融合的熵gini_all = gini_left * len(y_left) / len(X_train[:, feature_idx]) \+ gini_right * len(y_right) / len(X_train[:, feature_idx])print('[iteration]融合的熵:', gini_all)if gini_all <= best_split_gini:best_split_gini = gini_allbest_split_feature_idx = feature_idxbest_split_feature_value = valueprint(f'[result]找到了一个最好的分裂点:{best_split_feature_idx}, {best_split_feature_value}, {best_split_gini}')# 打印左边和右边的样本数量和取值print('[result]左边样本数量:', len(y_left))print('[result]左边样本取值:', np.unique(y_left, return_counts=True))print('[result]右边样本数量:', len(y_right))print('[result]右边样本取值:', np.unique(y_right, return_counts=True))print('------------')

运行对比,gini系数的计算与plot_tree输出一致。

决策树的意义

决策树可以用于进行特征筛选。

例如:通过鸢尾花分类问题对比发现,在决策树计算过程中,通过dtc.feature_importances_可以看到特征1的重要性为0,基本上没有什么作用;而特征3比较重要。

优点:解释性比较好,可以对特征进行重要性排序,模型可大可小(可以进行剪枝)

本章小结

  • 熵是衡量一个系统的混乱程度。熵越大,系统越混乱的;熵越小,系统越有序的。
  • 一个模型输出越确定越不混乱,越不确定越混乱。
  • 决策树是一种用于解决分类问题的算法,它通过一定的规则对每一个节点进行判断,直到找到叶子节点后输出返回。
  • 基于降熵的思想,决策树在构建过程中,对数据进行遍历计算熵,找到熵降得最小的,然后将该熵对应的值作为分裂值,分为左边和右边两部分,直到结束。
  • 为了简化熵的计算,也可以使用gini系数来进行计算,从而简化工程计算代价。
  • 除了决策树进行预测之外,也可以用于进行特征筛选。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/337080.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

用HAL库改写江科大的stm32入门-6-3 PWM驱动LED呼吸灯

接线图&#xff1a; 2 :实验目的&#xff1a; 利用pwm实现呼吸灯。 关键PWM定时器设置&#xff1a; 代码部分&#xff1a; int main(void) {/* USER CODE BEGIN 1 *//* USER CODE END 1 *//* MCU Configuration--------------------------------------------------------*…

10.Halcon3D点云和MESH的相互转换

1.实现效果 这个案例主要是想告诉我们,如何在点云数据(全是点)和MESH(网格数据)中转换,理论上说可以点云数据可以看作的离散的,而MESH网格数据可以看作是连续的。 上图展示了三个(其实是四个)空间中的3d对象,左边第一个是一个立方体,经过降采样之后的点云,中间的是…

匿名函数(lambda)

自学python如何成为大佬(目录):https://blog.csdn.net/weixin_67859959/article/details/139049996?spm1001.2014.3001.5501 匿名函数是指没有名字的函数&#xff0c;应用在需要一个函数&#xff0c;但是又不想费神去命名这个函数的场合。通常情况下&#xff0c;这样的函数只…

LabVIEW中进行步进电机的位置控制

在LabVIEW中进行步进电机的位置控制&#xff0c;通常涉及以下几个关键步骤&#xff1a;设置硬件、配置通信、编写控制算法和实施反馈控制。以下是一个详细的介绍。 硬件设置 步进电机&#xff1a;选择合适的步进电机&#xff0c;根据负载和应用需求选择适当的步数和转矩。 驱…

TensorFlow Playground神经网络演示工具使用方法详解

在现代机器学习领域,神经网络无疑是一个重要的研究方向。然而,对于许多初学者来说,神经网络的概念和实际操作可能显得相当复杂。幸运的是,TensorFlow Playground 提供了一个交互式的在线工具,使得我们可以直观地理解和实验神经网络的基本原理。在这篇博客中,我们将详细介…

IMU状态预积分代码实现 —— IMU状态预积分类

IMU状态预积分代码实现 —— IMU状态预积分类 实现IMU状态预积分类 实现IMU状态预积分类 首先&#xff0c;实现预积分自身的结构。一个预积分类应该存储一下数据&#xff1a; 预积分的观测量 △ R ~ i j , △ v ~ i j , △ p ~ i j \bigtriangleup \tilde{R} _{ij},\bigtrian…

Superset二次开发之更新 SECRET_KEY

SECRET_KEY 的作用 加密和签名:SECRET_KEY用于对敏感数据(如会话、cookie、CSRF令牌)进行加密和签名,防止数据被篡改。安全性:确保应用的安全性,防止跨站请求伪造(CSRF)攻击和会话劫持等安全问题。如何生成 SECRET_KEY openssl rand -base64 42 配置 SECRET_KEY 在sup…

git使用流程与规范

原文网址&#xff1a;git代码提交流程与规范-CSDN博客 简介 本文git提交流程与规范是宝贵靠谱的经验&#xff0c;它能解决如下问题&#xff1a; 分支差距过大&#xff0c;导致合代码无数的冲突合完代码后发现代码丢失分支不清晰&#xff0c;无法追溯问题合代码耗时很长&…

使用Spring Boot自定义注解 + AOP实现基于IP的接口限流和黑白名单

&#x1f604; 19年之后由于某些原因断更了三年&#xff0c;23年重新扬帆起航&#xff0c;推出更多优质博文&#xff0c;希望大家多多支持&#xff5e; &#x1f337; 古之立大事者&#xff0c;不惟有超世之才&#xff0c;亦必有坚忍不拔之志 &#x1f390; 个人CSND主页——Mi…

数据在内存中的存储<C语言>

导言 在计算机中不同类型的数据在计算机内部存储形式各不相同&#xff0c;弄懂各种数据在计算机内部存储形式是有必要的&#xff0c;C语言的学习不能浮于表面&#xff0c;更要锻炼我们的“内功”&#xff0c;将来在写程序的时候遇见各种稀奇古怪的bug时&#xff0c;也便能迎刃而…

应用案例|精密制造中使用复合机器人得到显著提升

精密制造行业对设备的精度、稳定性和效率要求极高&#xff0c;而复合机器人凭借其多功能性、高度灵活性和精准控制能力&#xff0c;正逐渐成为该领域的新宠。以下是一个富唯智能复合机器人在精密制造中的应用案例。 案例背景 某知名汽车零部件制造企业&#xff0c;专注于生产…

u盘文件保密的方法有哪些?关于U盘的使用你要知道这些!

U盘作为便携式的存储设备&#xff0c;被广泛应用于日常工作和生活中。 然而&#xff0c;U盘的丢失或被盗可能导致敏感数据泄露&#xff0c;因此&#xff0c;掌握U盘文件保密的方法至关重要。 本文将介绍几种有效的U盘文件保密方法&#xff0c;并分享关于U盘使用的关键知识&…

Threejs(WebGL)绘制线段优化:Shader修改gl.LINES模式为gl.LINE_STRIP

目录 背景 思路 Threejs实现 记录每条线的点数 封装原始裁剪索引数据 封装合并几何体的缓冲数据&#xff1a;由裁剪索引组成的 IntArray 守住该有的线段&#xff01; 修改顶点着色器 修改片元着色器 完整代码 WebGL实现类似功能&#xff08;简易版&#xff0c;便于测…

cdo | 常用命令

整理一下平时经常会使用的cdo命令 如何来更改netcdf数据中的变量名呢&#xff1f; 假设我现在有一个sst月平均数据,希望将里面的变量名称sst修改为sst_new netcdf oisst_monthly { dimensions:lat 180 ;lon 360 ;time UNLIMITED ; // (476 currently)nbnds 2 ; variable…

音视频开发14 FFmpeg 视频 相关格式分析 -- H264 NALU格式分析

H264简介-也叫做 AVC H.264&#xff0c;在MPEG的标准⾥是MPEG-4的⼀个组成部分–MPEG-4 Part 10&#xff0c;⼜叫Advanced Video Codec&#xff0c;因此常常称为MPEG-4 AVC或直接叫AVC。 原始数据YUV,RGB为什么要压缩-知道就行 在⾳视频传输过程中&#xff0c;视频⽂件的传输…

Element快速入门

Vue组件库Element 1 Element介绍 vue是侧重于VM开发的&#xff0c;主要用于数据绑定到视图的&#xff0c;ElementUI就是一款侧重于V开发的前端框架&#xff0c;主要用于开发美观的页面的。 Element&#xff1a;是饿了么公司前端开发团队提供的一套基于 Vue 的网站组件库&…

使用pytorch搭建textCNN、BERT、transformer进行文本分类

首先展示数据处理后的类型&#xff1a; 第一列为文本&#xff0c;第二类为标注的标签&#xff0c;数据保存在xlsx的表格中&#xff0c;分为训练集和验证集。 textCNN 直接上整个工程代码&#xff1a; import pandas as pd import numpy as np import torch from torch.util…

SAPUI5基础知识3 - 引导过程(Bootstrap)

1. 背景 在上一篇博客中&#xff0c;我们已经建立出了第一个SAPUI5项目&#xff0c;接下来&#xff0c;我们将为这个项目添加引导过程。 在动手练习之前&#xff0c;让我们先解释一下什么引导过程。 1.1 什么是引导过程&#xff1f; 在计算机科学中&#xff0c;引导过程也称…

Presto 从提交SQL到获取结果 源码详解(3)

物理执行计划 回到SqlQueryExecution.startExecution() &#xff0c;执行计划划分以后&#xff0c; // 初始化连接&#xff0c;获取Connect 元数据&#xff0c;添加会话&#xff0c;初始ConnectId metadata.beginQuery(getSession(), plan.getConnectors()); // 构建物理执行…

你真的会用收藏夹吗?可道云teamOS收藏夹,竟能缩短多层级文件夹的路径,实现快速访问

在日常工作中&#xff0c;我们时常会面临一个让人头疼的问题&#xff1a;如何在海量的文件和资料中快速找到我们需要的那一份&#xff1f; 尤其是在团队协作中&#xff0c;每个人都在不断地上传、更新文件……导致文件目录层级复杂&#xff0c;搜索也变得繁琐。 这时候&#x…