【机器学习】——朴素贝叶斯模型

💻博主现有专栏:

                C51单片机(STC89C516),c语言,c++,离散数学,算法设计与分析,数据结构,Python,Java基础,MySQL,linux,基于HTML5的网页设计及应用,Rust(官方文档重点总结),jQuery,前端vue.js,Javaweb开发,设计模式、Python机器学习等
🥏主页链接:

                Y小夜-CSDN博客

目录

🎯本文目的

🎯理解朴素贝叶斯算法的基本原理

💻制作“买房会负债.csv”数据集文件,并用pandas载入数据

💻创建伯努利贝叶斯模型,并用上一步载入的数据训练模型

💻用训练好的模型预测

🎯了解不同朴素贝叶斯变体的差异

💻自己创建分类数据集

💻创建高斯朴素贝叶斯模型

🎯使用朴素贝叶斯模型预测蘑菇分类

💻加载蘑菇数据集

💻数据预处理,创建多项式贝叶斯模型并用预处理过的蘑菇数据集训练

💻多项式朴素贝叶斯模型对蘑菇数据集的预测准确率

💻研究样本数量对朴素贝叶斯模型的影响


🎯本文目的

(一)理解朴素贝叶斯算法的基本原理

(二)能够使用sklearn库进行朴素贝叶斯模型的训练和预测

(三)理解朴素贝叶斯算法三种变体模型适用的数据集的不同情况

🎯理解朴素贝叶斯算法的基本原理

💻制作“买房会负债.csv”数据集文件,并用pandas载入数据

import pandas as pd
data=pd.read_csv('aa.csv')
data.head()

import pandas as pd  # 导入pandas库,用于数据处理和分析
data = pd.read_csv('aa.csv')  # 使用pandas的read_csv函数读取名为'aa.csv'的文件,并将数据存储在变量data中
data.head()  # 使用head函数显示数据的前5行,以便查看数据的结构和内容

💻创建伯努利贝叶斯模型,并用上一步载入的数据训练模型

from sklearn.naive_bayes import BernoulliNB
x=data.drop(['年份','次年房价是否大幅上涨'],axis=1)
y=data['次年房价是否大幅上涨']
clf=BernoulliNB()
clf.fit(x,y)
clf.score(x,y)

# 导入伯努利朴素贝叶斯分类器
from sklearn.naive_bayes import BernoulliNB

# 从数据集中删除'年份'和'次年房价是否大幅上涨'列,作为特征矩阵x
x = data.drop(['年份', '次年房价是否大幅上涨'], axis=1)

# 提取'次年房价是否大幅上涨'列作为目标变量y
y = data['次年房价是否大幅上涨']

# 创建伯努利朴素贝叶斯分类器实例
clf = BernoulliNB()

# 使用特征矩阵x和目标变量y训练分类器
clf.fit(x, y)

# 计算分类器的准确率
clf.score(x, y)

💻用训练好的模型预测

x_2019=[[0,1,0]]
y_2020=clf.predict(x_2019)
print(y_2020)
x_2020=[[1,1,0]]
y_2021=clf.predict(x_2020)
print(y_2021)

# 定义一个二维列表x_2019,其中包含一个子列表[0, 1, 0]
x_2019 = [[0, 1, 0]]

# 使用分类器clf对x_2019进行预测,将结果存储在变量y_2020中
y_2020 = clf.predict(x_2019)

# 打印预测结果y_2020
print(y_2020)

# 定义一个二维列表x_2020,其中包含一个子列表[1, 1, 0]
x_2020 = [[1, 1, 0]]

# 使用分类器clf对x_2020进行预测,将结果存储在变量y_2021中
y_2021 = clf.predict(x_2020)

# 打印预测结果y_2021
print(y_2021)

🎯了解不同朴素贝叶斯变体的差异

💻自己创建分类数据集

from sklearn.datasets import make_blobs
from sklearn.naive_bayes import BernoulliNB
from sklearn.model_selection import train_test_split
x,y=make_blobs(n_samples=400,centers=4,random_state=8)

# 导入make_blobs函数,用于生成聚类算法的数据集
from sklearn.datasets import make_blobs
# 导入BernoulliNB模块,即伯努利朴素贝叶斯分类器
from sklearn.naive_bayes import BernoulliNB
# 导入train_test_split函数,用于将数据集划分为训练集和测试集
from sklearn.model_selection import train_test_split

# 使用make_blobs函数生成一个包含400个样本、4个中心点的数据集
x, y = make_blobs(n_samples=400, centers=4, random_state=8)

💻创建伯努利朴素贝叶斯模型,并用自己创建的分类数据集进行训练和可视化。

x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=8)
nb=BernoulliNB()
nb.fit(x_train,y_train)

# 导入train_test_split函数,用于将数据集划分为训练集和测试集
from sklearn.model_selection import train_test_split

# 导入BernoulliNB类,用于创建伯努利朴素贝叶斯分类器
from sklearn.naive_bayes import BernoulliNB

# 使用train_test_split函数将数据集x和y划分为训练集和测试集
# x_train, x_test为特征数据的训练集和测试集
# y_train, y_test为标签数据的训练集和测试集
# random_state参数设置为8,确保每次划分的结果一致
x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=8)

# 创建一个伯努利朴素贝叶斯分类器实例
nb = BernoulliNB()

# 使用训练集数据对分类器进行训练
nb.fit(x_train, y_train)
 


import numpy as np
import matplotlib.pyplot as plt# 获取x的最小值和最大值,并分别减去0.5和加上0.5
x_min, x_max = x[:, 0].min() - 0.5, x[:, 0].max() + 0.5
y_min, y_max = x[:, 1].min() - 0.5, x[:, 1].max() + 0.5# 使用numpy的meshgrid函数生成网格点坐标矩阵
xx, yy = np.meshgrid(np.arange(x_min, x_max, .2),np.arange(y_min, y_max, .2))# 使用朴素贝叶斯模型进行预测,并将结果重塑为与xx相同的形状
z = nb.predict(np.c_[(xx.ravel(), yy.ravel())]).reshape(xx.shape)# 使用pcolormesh函数绘制分类区域
plt.pcolormesh(xx, yy, z, cmap=plt.cm.Pastel1)# 使用scatter函数绘制样本点,并根据类别进行着色
plt.scatter(x[:, 0], x[:, 1], c=y, cmap=plt.cm.Pastel2, edgecolor='k')# 设置x轴和y轴的范围
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())# 设置图表标题
plt.title('BernoulliNB')# 显示图表
plt.show()

        这段代码使用了NumPy和Matplotlib库来进行数据可视化。首先,它导入了这两个库。然后,它获取了输入数据的最小值和最大值,并分别减去0.5和加上0.5,以便在图表中留出一些边距。接下来,它使用np.meshgrid函数生成了一个网格点坐标矩阵,用于绘制分类区域。然后,它使用朴素贝叶斯模型对网格点进行预测,并将结果重塑为与网格点坐标矩阵相同的形状。接着,它使用plt.pcolormesh函数绘制了分类区域,并使用plt.scatter函数绘制了样本点,根据类别进行着色。最后,它设置了x轴和y轴的范围,并添加了图表标题。最终,通过调用plt.show()函数显示了图表。

💻创建高斯朴素贝叶斯模型

from sklearn.naive_bayes import GaussianNB
gnb=GaussianNB()
gnb.fit(x_train,y_train)
print('模型得分:{:,.3f}'.format(gnb.score(x_test,y_test)))

# 导入sklearn库中的高斯朴素贝叶斯分类器
from sklearn.naive_bayes import GaussianNB

# 创建一个GaussianNB对象,用于后续的模型训练和预测
gnb = GaussianNB()

# 使用训练数据集x_train和对应的标签y_train来训练模型
gnb.fit(x_train, y_train)

# 使用测试数据集x_test和对应的标签y_test来评估模型的性能,并打印出模型的得分
print('模型得分:{:,.3f}'.format(gnb.score(x_test, y_test)))
 


z_gnb=gnb.predict(np.c_[(xx.ravel(),yy.ravel())]).reshape(xx.shape)
plt.pcolormesh(xx,yy,z_gnb,cmap=plt.cm.Pastel1)
plt.scatter(x[:,0],x[:,1],c=y,cmap=plt.cm.Pastel2,edgecolor='k')
plt.xlim(xx.min(),xx.max())
plt.ylim(yy.min(),yy.max())
plt.title('GaussianNB')
plt.show()

# 使用高斯朴素贝叶斯模型进行预测,并将结果重塑为与xx相同的形状
z_gnb = gnb.predict(np.c_[(xx.ravel(), yy.ravel())]).reshape(xx.shape)

# 绘制预测结果的网格图,使用Pastel1颜色映射
plt.pcolormesh(xx, yy, z_gnb, cmap=plt.cm.Pastel1)

# 绘制原始数据的散点图,使用Pastel2颜色映射,并设置边缘颜色为黑色
plt.scatter(x[:, 0], x[:, 1], c=y, cmap=plt.cm.Pastel2, edgecolor='k')

# 设置x轴和y轴的范围为xx和yy的最小值和最大值
plt.xlim(xx.min(), xx.max())
plt.ylim(yy.min(), yy.max())

# 设置图表标题为'GaussianNB'
plt.title('GaussianNB')

# 显示图表
plt.show()

🎯使用朴素贝叶斯模型预测蘑菇分类

💻加载蘑菇数据集

import pandas as pd
mushroom=pd.read_csv('mushroom.csv')
mushroom.head()

import pandas as pd  # 导入pandas库,用于数据处理和分析
mushroom = pd.read_csv('mushroom.csv')  # 使用pandas的read_csv函数读取名为'mushroom.csv'的文件,并将其存储在变量mushroom中
mushroom.head()  # 使用pandas的head函数显示mushroom的前5行数据

💻数据预处理,创建多项式贝叶斯模型并用预处理过的蘑菇数据集训练

# 导入sklearn库中的train_test_split函数,用于将数据集划分为训练集和测试集
from sklearn.model_selection import train_test_split# 使用isnull()函数检查mushroom数据集中是否存在缺失值,并使用sum()函数统计每列的缺失值数量
mushroom.isnull().sum()


 
# 获取mushroom字典中'class'键对应的唯一值,并返回一个包含这些唯一值的数组
unique_classes = mushroom['class'].unique()


from sklearn.preprocessing import LabelEncoder
labelencoder=LabelEncoder()
for col in mushroom.columns:mushroom[col]=labelencoder.fit_transform(mushroom[col])
mushroom.head()

# 导入LabelEncoder模块,用于将类别标签转换为整数编码
from sklearn.preprocessing import LabelEncoder

# 创建LabelEncoder对象
labelencoder = LabelEncoder()

# 遍历数据集的每一列
for col in mushroom.columns:
    # 使用LabelEncoder的fit_transform方法将每一列的类别标签转换为整数编码
    mushroom[col] = labelencoder.fit_transform(mushroom[col])

# 显示数据集的前几行
mushroom.head()
 


# 导入pandas库
import pandas as pd# 读取名为mushroom的数据集
mushroom = pd.read_csv('mushroom.csv')# 使用groupby方法按照'class'列对数据进行分组,并计算每个分组的大小(即每个类别的数量)
print(mushroom.groupby('class').size())

💻多项式朴素贝叶斯模型对蘑菇数据集的预测准确率

from sklearn.naive_bayes import MultinomialNB
x=mushroom.iloc[:,1:23]
y=mushroom.iloc[:, 0]
x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=42)
mnb=MultinomialNB()
mnb.fit(x_train,y_train)
print(mnb.score(x_train,y_train))
print(mnb.score(x_test,y_test))

# 导入sklearn库中的MultinomialNB模块,用于实现多项式朴素贝叶斯分类器
from sklearn.naive_bayes import MultinomialNB

# 从mushroom数据集中提取特征矩阵x(第1列到第23列)
x = mushroom.iloc[:, 1:23]

# 从mushroom数据集中提取目标变量y(第0列)
y = mushroom.iloc[:, 0]

# 将数据集划分为训练集和测试集,其中测试集占比为30%,随机种子为42
x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=42)

# 创建一个多项式朴素贝叶斯分类器对象
mnb = MultinomialNB()

# 使用训练集对分类器进行训练
mnb.fit(x_train, y_train)

# 输出训练集上的准确率
print(mnb.score(x_train, y_train))

# 输出测试集上的准确率
print(mnb.score(x_test, y_test))

💻研究样本数量对朴素贝叶斯模型的影响

import numpy as np 
from sklearn.model_selection import learning_curve
from sklearn.model_selection import ShuffleSplit
from sklearn.naive_bayes import GaussianNB
import matplotlib.pyplot as plt
def plot_learning_curve(estimator,title,x,y,ylim=None,cv=None,n_jobs=-1,train_sizes=np.linspace(.1, 1.0,5)):plt.figure()plt.title(title)if ylim is not None:plt.ylim(*ylim)plt.xlabel('Training examples')plt.ylabel('Score')train_sizes,train_scores,test_scores=learning_curve(estimator,x,y,cv=cv,n_jobs=n_jobs,train_sizes=train_sizes)train_scores_mean=np.mean(train_scores,axis=1)test_scores_mean=np.mean(test_scores,axis=1) plt.grid()plt.plot(train_sizes,train_scores_mean,'o-',color='r',label='Training score')plt.plot(train_sizes,test_scores_mean,'o-',color='g',label='Coss-validation score')plt.legend(loc='lower right')return plt
cv=ShuffleSplit(n_splits=30,test_size=0.3,random_state=28)
estimators=[MultinomialNB(),GaussianNB()]
for estimator in estimators:title=estimatorsplot_learning_curve(estimator,title,x,y,ylim=(0.5,1.0),cv=cv,n_jobs=-1)
plt.show()

import numpy as np  # 导入numpy库,用于进行数值计算
from sklearn.model_selection import learning_curve  # 导入学习曲线函数
from sklearn.model_selection import ShuffleSplit  # 导入随机划分数据集的函数
from sklearn.naive_bayes import GaussianNB  # 导入高斯朴素贝叶斯分类器
import matplotlib.pyplot as plt  # 导入绘图库matplotlib

# 定义绘制学习曲线的函数
def plot_learning_curve(estimator, title, x, y, ylim=None, cv=None, n_jobs=-1, train_sizes=np.linspace(.1, 1.0, 5)):
    plt.figure()  # 创建一个新的图形
    plt.title(title)  # 设置图形标题
    if ylim is not None:  # 如果y轴范围不为空,则设置y轴范围
        plt.ylim(*ylim)
    plt.xlabel('Training examples')  # 设置x轴标签
    plt.ylabel('Score')  # 设置y轴标签
    # 调用学习曲线函数,获取训练集大小、训练得分和测试得分
    train_sizes, train_scores, test_scores = learning_curve(estimator, x, y, cv=cv, n_jobs=n_jobs, train_sizes=train_sizes)
    train_scores_mean = np.mean(train_scores, axis=1)  # 计算训练得分的均值
    test_scores_mean = np.mean(test_scores, axis=1)  # 计算测试得分的均值
    plt.grid()  # 添加网格线
    # 绘制训练得分曲线
    plt.plot(train_sizes, train_scores_mean, 'o-', color='r', label='Training score')
    # 绘制交叉验证得分曲线
    plt.plot(train_sizes, test_scores_mean, 'o-', color='g', label='Coss-validation score')
    plt.legend(loc='lower right')  # 设置图例位置
    return plt

cv = ShuffleSplit(n_splits=30, test_size=0.3, random_state=28)  # 创建随机划分数据集的对象
estimators = [MultinomialNB(), GaussianNB()]  # 创建分类器列表
for estimator in estimators:  # 遍历分类器列表
    title = estimators  # 设置图形标题为分类器名称
    plot_learning_curve(estimator, title, x, y, ylim=(0.5, 1.0), cv=cv, n_jobs=-1)  # 调用绘制学习曲线函数
plt.show()  # 显示图形

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/476815.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

如何使用Jest测试你的React组件

在本文中,我们将了解如何使用Jest(Facebook 维护的一个测试框架)来测试我们的React组件。我们将首先了解如何在纯 JavaScript 函数上使用 Jest,然后再了解它提供的一些开箱即用的功能,这些功能专门用于使测试 React 应…

Stm32f103X HAL库 串口DMA空闲中断学习 踩坑记

捡 了一个Stm32f103X的工控板, 开发工具是 STM32cubeide ,复制了之前闲的时候建的一个485通讯的空工程,只配置了圈中的引脚,用的是usart3 ,增加了需要用的io,编程器是网上几块钱买的jlink-ob,带模拟串口的. 在学习串口通信的过程中总感觉不太顺利 ,刚开始用串口中断…

云服务器部署WebSocket项目

WebSocket是一种在单个TCP连接上进行全双工通信的协议,其设计的目的是在Web浏览器和Web服务器之间进行实时通信(实时Web) WebSocket协议的优点包括: 1. 更高效的网络利用率:与HTTP相比,WebSocket的握手只…

PDF内容提取,MinerU使用

准备环境 # python 3.10 python3 -m pip install huggingface_hub python3 -m pip install modelscope python3 -m pip install -U magic-pdf[full] --extra-index-url https://wheels.myhloli.com下载需要的模型 import json import osimport requests from huggingface_hub…

掌握 Spring 事务管理:深入理解 @Transactional 注解

在业务方法上使用Transactional开启声明式事务时,很有可能由于使用方式有误,导致事务没有生效。 环境准备 表结构 CREATE TABLE admin (id bigint(20) unsigned NOT NULL AUTO_INCREMENT,username varchar(255) DEFAULT NULL,password varchar(255) …

设计模式之 观察者模式

观察者模式(Observer Pattern)是一种行为型设计模式,它定义了一种一对多的依赖关系,让多个观察者对象同时监听一个主题对象(Subject)。当主题对象的状态发生变化时,所有依赖于它的观察者都会得到…

【python】将word文档内容转换为excel表格

在日常工作中,我们经常需要将Word文档中的内容提取并转换为Excel表格,以便进行数据分析和处理。本文将介绍如何使用Python编写一个简单的程序,将Word文档中的内容转换为Excel表格。 一.实例 使用以下word文档作为例子: 工具界面如…

Linux|进程程序替换

目录 什么是进程替换 替换原理 exec函数 exec* 函数的共性 什么是进程替换 进程程序替换是指将一个进程中正在运行的程序替换为另一个全新的程序的过程,但替换不是创建新进程,只是将对应程序的代码和数据进行替换。具体来说,这个替换过程涉…

大数运算(加减乘除和输入、输出模块)

为什么会有大数呢?因为long long通常为64位范围约为 -9,223,372,036,854,775,808 到 9,223,372,036,854,775,807,最多也就19位,那么超过19位的如何计算呢?这就引申出来大数了。 本博客适合思考过这道题,但是没做出来或…

IntelliJ+SpringBoot项目实战(四)--快速上手数据库开发

对于新手学习SpringBoot开发,可能最急迫的事情就是尽快掌握数据库的开发。目前数据库开发主要流行使用Mybatis和Mybatis Plus,不过这2个框架对于新手而言需要一定的时间掌握,如果快速上手数据库开发,可以先按照本文介绍的方式使用JdbcTemplat…

flex布局 昵图网【案例】

效果展示 只是个大概&#xff0c;可自己完善。 昵图网 代码展示 <body><!-- https://static.ntimg.cn/original/images/soso.png --><div class"container"><div class"header"><!-- <div class"logo"><i…

[第五空间 2021]pklovecloud 详细题解

知识点: 构造POP链 PHP类的作用域 NULL强比较 目录穿越 源码如下: <?php include flag.php; class pkshow { function echo_name() { return "Pk very safe^.^"; } } class acp { protected $cinder; public $neutron;public $n…

dockerfile构建Nginx镜像练习二(5-2)

环境准备&#xff1a; (1)保证拥有centos基础镜像 docker images | grep centos (2)服务器保证可以连接外网 1.创建工作目录 mkdir nginx cd nginx 2.在工作目录中创建并编写Dockerfile文件 vim dockerfile #定义基础镜像 FROM centos:7#维护者信息(可缺省) MAINTAINER d…

Android Surfaceflinger显示图层合成方式

Android SurfaceFlinger是Android系统中负责窗口管理和图像合成的核心组件。它接收来自不同应用的图层数据&#xff0c;并将这些图层合并成一个单一的图像&#xff0c;然后输出到显示设备上。SurfaceFlinger的合成方式主要涉及两种&#xff1a;Client合成和Device合成。 adb s…

wsl安装

一. wsl简介 1. wsl和wsl2的区别 wsl需要把linux命令翻译为windows命令&#xff0c;性能差一些。 wsl2直接使用linux内核&#xff0c;不需要翻译&#xff0c;性能好&#xff0c;但开销相对大一点&#xff0c;因为需要多运行一个hyper-v虚拟机 (并非完整的虚拟机&#xff0c;是…

任务通知的本质(任务通知车辆运行) 软件定时器的本质(增加游戏音效)

任务通知的本质 没有任务通知 所谓"任务通知"&#xff0c;你可以反过来读"通知任务"。 我们使用队列、信号量、事件组等等方法时&#xff0c;并不知道对方是谁。使用任务通知时&#xff0c;可 以明确指定&#xff1a;通知哪个任务。 使用队列、信号量、…

Kubernetes的pod控制器

文章目录 一&#xff0c;什么是pod控制器二&#xff0c;pod控制器类型&#xff08;重点&#xff09;1.ReplicaSet2.Deployment3.DaemonSet4.StatefulSet5.Job6.Cronjob 三&#xff0c;pod与控制器的关系1.Deployment2.SatefulSet2.1StatefulSet组成2.2headless的由来2.3有状态服…

【单元测试】【Android】JUnit 4 和 JUnit 5 的差异记录

背景 Jetbrain IDE 支持生成 Test 类&#xff0c;其中选择JUnit5 和 JUnit&#xff0c;但是感觉这不是标准的单元测试&#xff0c;因为接口命名吧。 差异对比 两者生成的单测API名称同原API&#xff0c;没加test前缀的。使用差异主要表现在&#xff1a; setUp &#xff06; …

知识中台在多语言客户中的应用

在全球化的商业环境中&#xff0c;企业面临着多语言客户服务的挑战。HelpLook知识中台作为一种智能化解决方案&#xff0c;为企业提供了一个强大的工具&#xff0c;以实现多语言客户服务的自动化和优化。 一、多语言客户服务的重要性 多语言客户服务对于跨国企业至关重要&…

使用 Elastic AI Assistant for Search 和 Azure OpenAI 实现从 0 到 60 的转变

作者&#xff1a;来自 Elastic Greg Crist Elasticsearch 推出了一项新功能&#xff1a;Elastic AI Assistant for Search。你可以将其视为 Elasticsearch 和 Kibana 开发人员的内置指南&#xff0c;旨在回答问题、引导你了解功能并让你的生活更轻松。在 Microsoft AI Services…