基于GTSRB数据集的交通标志识别实验(Tensorflow)

基于GTSRB的交通标志识别实验

  • 一、数据
    • 数据读取
  • 二、搭建网络
  • 三、模型预测
  • 四、附录
    • 模块导入
    • Code
  • 结语

一、数据

官网下载太慢,然后我找到了一个整理好的数据集
链接: GTSRB-德国交通标志识别图像数据 .
数据集很干净,直接用就好了,它把所有的数据信息单独列了一个csv文件。
数据集有43个大类 。
每个类按规律排列,需要将其打乱顺序。
在这里插入图片描述
训练集:
在这里插入图片描述
在这里插入图片描述

测试集:在这里插入图片描述
如图,虽然数据集要干净一些,但是读取测试集和训练集的方法不一样

数据读取

1、训练数据
因为训练集是按规律排列的,而且数据量很大,所以先打乱顺序,将其划分出一个训练集一个测试集。(原数据集里边的测试集不是按类别分的,读出来格式不太一样,就直接用这个了)

#%%
#划分训练集和测试集
import os
import random
import shutil
path = 'F:\GTSRB-德国交通标志识别图像数据\Train'
dirs = []
split_percentage = 0.2
for dirpath, dirnames, filenames in os.walk(path, topdown=False):for dirname in dirnames:fullpath = os.path.join(dirpath, dirname)fileCount = len([name for name in os.listdir(fullpath) if os.path.isfile(os.path.join(fullpath, name))])files = os.listdir(fullpath)for index in range((int)(split_percentage * fileCount)):newIndex = random.randint(0, fileCount - 1)fullFilePath = os.path.join(fullpath, files[newIndex])newFullFilePath = fullFilePath.replace('Train', 'Final_Validation')base_new_path = os.path.dirname(newFullFilePath)if not os.path.exists(base_new_path):os.makedirs(base_new_path)# move the filetry:shutil.move(fullFilePath, newFullFilePath)except IOError as error:print('skip moving from %s => %s' % (fullFilePath, newFullFilePath))

然后就可以对数据开始处理准备训练:

#%%
import shutil
import os
import matplotlib.pyplot as plttrain_set_base_dir = 'F:\GTSRB-德国交通标志识别图像数据\Train'
validation_set_base_dir = 'F:\GTSRB-德国交通标志识别图像数据\Final_Validation'# 数据处理
from keras.preprocessing.image import ImageDataGeneratortrain_datagen = ImageDataGenerator(rescale=1. / 255
)
train_data_generator = train_datagen.flow_from_directory(directory=train_set_base_dir,target_size=(48, 48),batch_size=32,class_mode='categorical')validation_datagen = ImageDataGenerator(rescale=1. /255
)validation_data_generator = validation_datagen.flow_from_directory(directory=validation_set_base_dir,target_size=(48, 48),batch_size=32,class_mode='categorical'
)

2、验证数据:
因为老是奇奇怪怪的报错,所以干脆用它给出来的Test文件夹里的测试集验证预测了。

#%%path = 'F:\GTSRB-德国交通标志识别图像数据'csv_files = []
for dirpath, dirnames, filenames in os.walk(path, topdown=False):for filename in filenames:if filename.endswith('.csv'):csv_files.append(os.path.join(dirpath, filename))#%%
import matplotlib.image as mpimg
test_image=[]
test_lable=[]
x=''
csv=csv_files[1] #F:\GTSRB-德国交通标志识别图像数据\Test.csv
base_path = os.path.dirname(csv)
# read csv data
trafficSigns = []
with open(csv,'r',newline='') as file:header = file.readline()header = header.strip()header_list = header.split(',')print(header_list)#print(header_list[6])for row in file.readlines():row_data = row.split(',')x=row_data[7]x='F:/GTSRB-德国交通标志识别图像数据/'+xx=x.strip('\n')test_lable.append(row_data[6])test = Image.open(x)test = test.resize((48,48),Image.ANTIALIAS)test = np.array(test)test_image.append(test)
test_data = np.array(test_image)

注:关于Test文件夹里的数据,因为读出来不是generator格式,所以最开始使用训练集抽取出来的20%作为测试集的,最后用test文件预测时出现了这个问题:
训练集:
在这里插入图片描述
模型评估的分非常高,然后预测时就变成了这样
在这里插入图片描述
准确率直接掉到了6%
关于用test文件夹里的数据做评估时,最开始分别输入数据和标签老是报错,最后找到原因是,label数据不能自动进行one-hot编码,所以需要手动进行。
所以我重新做了一下数据处理,干脆将其转换成generator对象。

二、搭建网络

#%%
import tensorflow as tf
from keras.models import Sequential
from keras.layers import Conv2D, MaxPool2D, Flatten, Dense, Dropout#模型使用简单四层卷积,加flatten和dense层作为分类器,对其进行分类
model = Sequential()# layers.conv2D
#此处选择四层二维卷积,并做全局池化
model.add(Conv2D(filters=32, kernel_size=(3, 3), activation='relu', input_shape=(48, 48, 3)))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=64, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=128, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=128, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))#分类器
model.add(Flatten())
# dropOut layer
model.add(Dropout(0.2))
model.add(Dense(units=512, activation='relu'))
model.add(Dense(units=43, activation='softmax'))#编译
#多分类单标签问题,loss选择的'categorical_crossentropy'
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['acc'])# 打印模型
model.summary()
json_str = model.to_json()
print(json_str)
#%%# fit_generator to fill in the dataset
#设置训练次数为30
history = model.fit_generator(generator=train_data_generator,steps_per_epoch=100,epochs=27,#在训练30次的过程中可以发现,在第27次时就已经过拟合validation_data=validation_data_generator,validation_steps=50)#保存模型
model.save('F:/MLCourse/model27epoch.h5')#%%
#绘制训练情况
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']epochs = range(1, len(acc) + 1)
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()plt.figure()plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()plt.show()

这里只是在测试写的程序,模型就用的普通的卷积层,验证效果并不好,建议下载一些预训练模型。
这里最开始训练了30次:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

可以看出来27次就过拟合了,训练精度还是蛮高的,可能是数据比较规律。

三、模型预测

因为一直在整数据,不想太麻烦,就把模型单独训练的。在这里加了一层softmax层做概率输出。

#%%
#下载训练好的模型
#import keras
new_model = keras.models.load_model('F:/MLCourse/model27epoch.h5')
#test_loss, test_acc = new_model.evaluate(test_image, test_lable)
#print('\nTest accuracy:', test_acc)
#附加一个 softmax 层,将 logits 转换成更容易理解的概率
probability_model = tf.keras.Sequential([new_model, tf.keras.layers.Softmax()])
#%%
#预测测试集中所有模型的标签
predictions = probability_model.predict(test_data)

然后,我就发现差不多只预测对了很少qaq|。所以过了一天我突然想改一改,所以上面重新处理了一下测试集数据,将其进行one-hot编码之后,转化成generator对象。然后重新训练了一次。
然后我又训练了一次,无论是将混乱的测试集作为训练输入,还是将比较规律的测试集作为输入,最后评估效果都很差,所以我决定重新设计网络。使用VGG16进行预训练。
然后训练完之后,如果用test里的文件和Train里的文件一个验证一个训练的话,验证精度依旧上不去。所以我就混合了一下,做了交叉验证。
然后验证精度就变成了:
在这里插入图片描述

四、附录

模块导入

因为怕麻烦,所以分开了很多文件搞的,搞了个大集合

#%%
import shutil
import os
import matplotlib.pyplot as plt
import keras
import tensorflow as tf
from PIL import Image
import numpy as np
from keras.preprocessing.image import ImageDataGenerator
from keras.preprocessing import image
import sys
import numpy as np
from tensorflow.keras import datasets, layers, models
from keras.models import Sequential
from keras.layers import Conv2D, MaxPool2D, Flatten, Dense, Dropout

Code

#%%Train文件划分后的数据处理
train_set_base_dir = 'F:\GTSRB-德国交通标志识别图像数据\Train'
validation_set_base_dir = 'F:\GTSRB-德国交通标志识别图像数据\Final_Validation'
#%%
train_datagen = ImageDataGenerator(rescale=1. / 255
)
train_data_generator = train_datagen.flow_from_directory(directory=train_set_base_dir,target_size=(48, 48),batch_size=32,class_mode='categorical')
#%%validation_datagen = ImageDataGenerator(rescale=1. /255
)validation_data_generator = validation_datagen.flow_from_directory(directory=validation_set_base_dir,target_size=(48, 48),batch_size=32,class_mode='categorical'
)#%%Test文件数据处理path = 'F:\GTSRB-德国交通标志识别图像数据'csv_files = []
for dirpath, dirnames, filenames in os.walk(path, topdown=False):for filename in filenames:if filename.endswith('.csv'):csv_files.append(os.path.join(dirpath, filename))#%%
import matplotlib.image as mpimg
test_image=[]
test_lable=[]
x=''
csv=csv_files[1] #F:\GTSRB-德国交通标志识别图像数据\Test.csv
base_path = os.path.dirname(csv)
# read csv data
trafficSigns = []
with open(csv,'r',newline='') as file:header = file.readline()header = header.strip()header_list = header.split(',')print(header_list)#print(header_list[6])for row in file.readlines():row_data = row.split(',')x=row_data[7]x='F:/GTSRB-德国交通标志识别图像数据/'+xx=x.strip('\n')m=row_data[6]test_lable.append(int(row_data[6]))test = Image.open(x)test = test.resize((48,48),Image.ANTIALIAS)test = np.array(test)test_image.append(test)#%%
test_data = np.array(test_image)
#%%
test_lable = np.array(test_lable)
#%%
#标签进行one-hot编码
labels = test_lable
one_hot_labels = tf.one_hot(indices=labels,depth=43, on_value=1, off_value=0, axis=-1, dtype=tf.int32, name="one-hot")
#%%
#print(one_hot_labels.shape)
test_datagen = ImageDataGenerator(rescale=1. /255
)test_data_generator = test_datagen.flow(x=test_data,y=one_hot_labels,#target_size=(48, 48),batch_size=32#class_mode='categorical'
)#%%
print(test_lable)        #%%训练
import tensorflow as tf
from keras.models import Sequential
from keras.layers import Conv2D, MaxPool2D, Flatten, Dense, Dropout#模型使用简单四层卷积,加flatten和dense层作为分类器,对其进行分类
model = Sequential()# layers.conv2D
#此处选择四层二维卷积,并做全局池化
model.add(Conv2D(filters=32, kernel_size=(3, 3), activation='relu', input_shape=(48, 48, 3)))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=64, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=128, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))model.add(Conv2D(filters=128, kernel_size=(3, 3), activation='relu'))
model.add(MaxPool2D(pool_size=(2, 2), padding='valid'))#分类器
model.add(Flatten())
# dropOut layer
model.add(Dropout(0.2))
model.add(Dense(units=512, activation='relu'))
model.add(Dense(units=43, activation='softmax'))#编译
#多分类单标签问题,loss选择的'categorical_crossentropy'
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['acc'])# 打印模型
model.summary()
json_str = model.to_json()
print(json_str)#%%# fit_generator to fill in the dataset
#设置训练次数为30
history = model.fit_generator(generator=train_data_generator,steps_per_epoch=100,epochs=27,#在训练30次的过程中可以发现,在第27次时就已经过拟合validation_data=validation_data_generator,validation_steps=50)#保存模型
model.save('F:/MLCourse/model27epoch.h5')#%%
#绘制训练情况
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']epochs = range(1, len(acc) + 1)
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()plt.figure()plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()plt.show()#%%print(train_data_generator[0])#%%
#下载训练好的模型
#import keras
new_model = keras.models.load_model('F:/MLCourse/model27epoch.h5')
#test_loss, test_acc = new_model.evaluate(test_image, test_lable)
#print('\nTest accuracy:', test_acc)
#附加一个 softmax 层,将 logits 转换成更容易理解的概率
probability_model = tf.keras.Sequential([new_model, tf.keras.layers.Softmax()])#%%
#test_loss, test_acc = new_model.evaluate_generator(validation_data_generator)
#print('\nTest accuracy:', test_acc)
new_model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['acc'])
new_model.summary()
#%%
#划分出来的测试集评估
scores = new_model.evaluate(validation_data_generator)
print(scores)#%%
#test评估
scores2 = new_model.evaluate(test_data,one_hot_labels, verbose=2)
print(scores2)#%%
#预测测试集中所有模型的标签
predictions = probability_model.predict(test_data)

结语

各种奇怪的报错姿势,小细节really重要。
PS.我去瞅了瞅测试集,有些图片都黑成一坨了,我都看不出来有东西。
PPS.本来考研好累,想搞搞这个放松放松,结果更自闭了.jpg
QAQ|、、、

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/48879.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

MOOC TensorFlow入门实操课程代码回顾总结(二)

欢迎来到TensorFlow入门实操课程的学习 MOOC TensorFlow入门实操课程代码回顾总结(一) MOOC TensorFlow入门实操课程代码回顾总结(三) 注: 用于表示python代码粘贴运行结果 目录 5 图像分类基础应用——猫狗分类案例5…

基于jupyter notebook的python编程-----猫狗数据集的阶段分类得到模型精度并进行数据集优化

基于jupyter notebook的python编程-----猫狗数据集的阶段分类并得到模型精度和后续优化 一、名词解释1、什么是overfit(过拟合)?2、什么是数据增强?3、什么是猫狗数据集? 二、猫狗数据集下载1、猫狗数据集下载2、数据集…

【动手撸深度学习】深度挖掘AI的图像分类能力!

欢迎来到动手撸深度学习~ cv君力挺的:最值得看的专栏系列:动手撸深度学习, 学习完本系列,你能从调包侠到一个能独立打比赛的朋友周边的神!文章付费,不想让太多人白嫖!!!因为全部原创,珍很贵 !!今天给大家来分享一下调参技巧,看完你会感谢我的~ 今天第一节 介绍如何…

卷积神经网络的猫狗识别

文章目录 一、准备工作二、猫狗识别2.1、下载数据集2.1.1、 图片分类2.1.2、图片数量统计 2.2、卷积神经网络CNN2.2.1、网络模型搭建2.2.2、图像生成器读取文件中数据2.2.3、训练2.2.4、保存模型2.2.5、结果可视化 2.3、对模型进行调整2.3.1、图像增强方法2.3.2、模型调整2.3.3…

Python基于keras训练简单微笑识别

文章目录 一、数据预处理二、训练模型创建模型训练模型训练结果 三、预测效果 四、源代码pretreatment.pytrain.pypredict.py 一、数据预处理 实验数据来自genki4k 提取含有完整人脸的图片 def init_file():num 0bar tqdm(os.listdir(read_path))for file_name in bar:bar…

猫狗识别与分类

猫狗识别与分类 文章目录 猫狗识别与分类一、前言二、环境配置三、源码以及数据集四、基础猫狗识别程序如下1、train.pytrain.py程序结构: 2、detect.pydetect.py程序结构: 五、配置环境过程1、打开Anaconda Prompta、创建一个叫MNIST4的环境b、创建成功…

基于卷积神经网络(CNN)的猫狗识别

目录 引言 1.什么是卷积神经网络? 1.1什么是神经网络? 1.2什么是卷积? 2.准备工作 2.1一些知识: 2.2keras 2.3Conv2D 2.4 MaxPooling2D 3.基于卷积神经网络的猫狗识别 3.1导入必要库 3.2模型定义 3.3实例化模型并训练…

使用卷积神经网络构建图像分类模型检测肺炎

在本篇文章中,我将概述如何使用卷积神经网络构建可靠的图像分类模型,以便从胸部x光图像中检测肺炎的存在。 肺炎是一种常见的感染,它使肺部的气囊发炎,引起呼吸困难和发烧等症状。尽管肺炎并不难治疗,但及时诊断是至关…

实验3:卷积神经网络图像分类

卷积神经网络图像分类 1 理解卷积神经网络1.1 搭建环境1.2 猫狗分析实例 2 卷积神经网络2.1 网络模型搭建2.2 使用图像生成器读取图片 本次实验将完成以下任务: 按照 python笔记本深度学习,利用TensorFlow和Keras,自己搭建卷积神经网络完成狗猫数据集的分…

Python-猫狗数据集两阶段分类 原始数据直接训练;数据增强后训练

本博客运行环境为Jupyter Notebook-Python3.7。 由于我使用的是Anaconda3配置的jupyter环境,我也将直接在anaconda下搭建keras环境。 博客目录 下载tensorflow、keras下载数据集并重新划分数据预处理训练数据增强 由于我电脑性能不是很好,又是AMD显卡的…

python+基于Jupyter notebook完成卷积神经网络笑脸识别

一、用卷积神经网络实现,做笑脸、非笑脸等表情识别 1.数据集 2.将下载里面的datasets,放到D盘新建的smile中, 1.根据猫狗数据集训练的方法来训练笑脸数据集 1.首先将train_folder文件夹下俩个文件夹内的图片的名字做修改。(修…

使用预先训练网络和特征抽取大力提升图像识别率

神经网络在项目实践中遇到的一大问题是数据不足。任何人工智能项目,在数据不足面前都会巧妇难为无米之炊,算法再精巧,只要数据量不足,最后的效果都不尽如人意,我们目前正在做的图像识别就是如此,要想让网络…

笑脸数据集、口罩数据集划分、训练、测试(jupyter notebook)

一、HOG,Dlib,卷积神经网络介绍 1、HoG ①方法简介 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的描述子。通过计算和统计局部区域的梯度方向直方图来构成特征。Ho…

Deep Learning with Python 系列笔记(三):计算机视觉

计算机视觉的深度学习 我们将深入探讨卷积的原理以及为什么它们在计算机视觉任务中如此成功。但首先,让我们来看看一个非常简单的“convnet”示例,我们将使用我们的convnet来对MNIST数字进行分类。 下面的6行代码展示了基本的convnet是什么样子的。它是…

基于Keras实现Kaggle2013--Dogs vs. Cats12500张猫狗图像的精准分类

【下载数据集】 下载链接–百度网盘 【整理数据集】 将训练数据集分割成训练集、验证集、测试集,目录结构如图所示: 在Pycharm中新建项目,创建split_dataset.pyimport os, shutil# 数据集解压之后的目录 original_dataset_dir = D:\kaggle\dogsvscats\\train # 存放小数据集…

使用tensorflow搭建分类神经网络以及迁移学习(训练过程)

*************************************************** 码字不易,收藏之余,别忘了给我点个赞吧! *************************************************** ---------Start 本文不涉及tensorflow环境配置过程,只讲解整个项目代码…

基于卷积神经网络的图像识别技术从入门到深爱(理论思想与代码实践齐飞)

基于卷积神经网络的图像识别技术从入门到深爱(理论与代码实践齐飞!) 零、前言一、手写数字识别入门神经网络(入门篇)1. 手写数字数据集及神经网络数据概念介绍1.1 手写数字数据集1.2 神经网络数据集1.3 基于tensorflow…

卷积神经网络实现人脸识别微笑检测

一:卷积神经网络介绍: 1. 定义: 卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习&a…

【053】ImageDataGenerator() 介绍

内容目录 一、ImageDataGenerator() 介绍二、数据增强处理和类的构造函数参数1、数据增强处理(data augmentation)2、ImageDataGenerator类的构造函数参数三、一般的对图像的处理流程四、ImageDataGenerator的所有方法介绍1、fit方法2、flow方法3、flow_…

2020中国华录杯·数据湖算法大赛—定向算法赛(吸烟打电话检测)baseline-tensorflow2.3-python3.6

文章目录 1.赛事背景1.主办方2.赛事介绍 2.baseline2.1 文件夹结构2.2 demo1. 01_train_test_split.py2. 02_tf2_mobilev2_classes.py3. 03_predict.py 3.问题及改进4.修改记录 1.赛事背景 1.主办方 赛事链接训练集测试集验证集 2.赛事介绍 1. 【赛题描述】行为规范&#xf…