《------往期经典推荐------》
一、AI应用软件开发实战专栏【链接】
项目名称 | 项目名称 |
---|---|
1.【人脸识别与管理系统开发】 | 2.【车牌识别与自动收费管理系统开发】 |
3.【手势识别系统开发】 | 4.【人脸面部活体检测系统开发】 |
5.【图片风格快速迁移软件开发】 | 6.【人脸表表情识别系统】 |
7.【YOLOv8多目标识别与自动标注软件开发】 | 8.【基于YOLOv8深度学习的行人跌倒检测系统】 |
9.【基于YOLOv8深度学习的PCB板缺陷检测系统】 | 10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统】 |
11.【基于YOLOv8深度学习的安全帽目标检测系统】 | 12.【基于YOLOv8深度学习的120种犬类检测与识别系统】 |
13.【基于YOLOv8深度学习的路面坑洞检测系统】 | 14.【基于YOLOv8深度学习的火焰烟雾检测系统】 |
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统】 | 16.【基于YOLOv8深度学习的舰船目标分类检测系统】 |
17.【基于YOLOv8深度学习的西红柿成熟度检测系统】 | 18.【基于YOLOv8深度学习的血细胞检测与计数系统】 |
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统】 | 20.【基于YOLOv8深度学习的水稻害虫检测与识别系统】 |
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统】 | 22.【基于YOLOv8深度学习的路面标志线检测与识别系统】 |
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统】 | 24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统】 |
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统】 | 26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统】 |
27.【基于YOLOv8深度学习的人脸面部表情识别系统】 | 28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统】 |
29.【基于YOLOv8深度学习的智能肺炎诊断系统】 | 30.【基于YOLOv8深度学习的葡萄簇目标检测系统】 |
31.【基于YOLOv8深度学习的100种中草药智能识别系统】 | 32.【基于YOLOv8深度学习的102种花卉智能识别系统】 |
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统】 | 34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统】 |
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统】 | 36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统】 |
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统】 | 38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统】 |
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统】 | 40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统】 |
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统】 | 42.【基于YOLOv8深度学习的无人机视角地面物体检测系统】 |
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统】 | 44.【基于YOLOv8深度学习的野外火焰烟雾检测系统】 |
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统】 | 46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统】 |
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统】 | 48.【基于深度学习的车辆检测追踪与流量计数系统】 |
49.【基于深度学习的行人检测追踪与双向流量计数系统】 | 50.【基于深度学习的反光衣检测与预警系统】 |
51.【基于深度学习的危险区域人员闯入检测与报警系统】 | 52.【基于深度学习的高密度人脸智能检测与统计系统】 |
53.【基于深度学习的CT扫描图像肾结石智能检测系统】 | 54.【基于深度学习的水果智能检测系统】 |
55.【基于深度学习的水果质量好坏智能检测系统】 | 56.【基于深度学习的蔬菜目标检测与识别系统】 |
57.【基于深度学习的非机动车驾驶员头盔检测系统】 | 58.【太基于深度学习的阳能电池板检测与分析系统】 |
59.【基于深度学习的工业螺栓螺母检测】 | 60.【基于深度学习的金属焊缝缺陷检测系统】 |
61.【基于深度学习的链条缺陷检测与识别系统】 | 62.【基于深度学习的交通信号灯检测识别】 |
63.【基于深度学习的草莓成熟度检测与识别系统】 | 64.【基于深度学习的水下海生物检测识别系统】 |
65.【基于深度学习的道路交通事故检测识别系统】 | 66.【基于深度学习的安检X光危险品检测与识别系统】 |
67.【基于深度学习的农作物类别检测与识别系统】 | 68.【基于深度学习的危险驾驶行为检测识别系统】 |
69.【基于深度学习的维修工具检测识别系统】 | 70.【基于深度学习的维修工具检测识别系统】 |
71.【基于深度学习的建筑墙面损伤检测系统】 | 72.【基于深度学习的煤矿传送带异物检测系统】 |
72.【基于深度学习的老鼠智能检测系统】 |
二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】,持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~
《------正文------》
基本功能演示
【旋转框目标检测】基于YOLO11//v8/深度学习的遥感视角船只智能检测系统设计与实现【python源码+Pyqt5界面+数据集+训练代码】
摘要:随着全球经济一体化的加深,海上运输作为国际贸易的重要纽带,其安全性和效率变得尤为重要。然而,传统的船只监测方法依赖于人工观测或有限的自动化系统,这些方法在面对复杂多变的海洋环境时显得力不从心。本文基于
YOLOv11/v8的深度学习框架
,通过12616
张实际场景中遥感视角船只
的相关图片,训练了可进行遥感视角船只
目标检测的模型,并且采用了最新的旋转框目标检测技术
,其相对于传统的水平框检测,结果更加精准可靠。同时全面对比分析了YOLOv8n-obb、YOLO11n-obb这2种模型在验证集上的评估性能表现
。最终基于训练好的模型制作了一款带UI界面的遥感视角船只智能检测系统
,更便于进行功能的展示。该系统是基于python
与PyQT5
开发的,支持图片
、视频
以及摄像头
进行目标检测
,并保存检测结果
。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末。
文章目录
- 基本功能演示
- 研究背景
- 旋转框检测优势
- 系统应用场景
- 主要工作内容
- 一、软件核心功能介绍及效果演示
- 软件主要功能
- 界面参数设置说明
- 检测结果说明
- 主要功能说明
- (1)图片检测说明
- (2)视频检测说明
- (3)摄像头检测说明
- (4)保存图片与视频检测说明
- 二、YOLOv5/v8/v10/11介绍
- 二、模型训练、评估与推理
- 1. 数据集准备与训练
- 2.模型训练
- 自定义数据集格式
- 3. 训练结果评估
- 4. 使用模型进行推理
- 三、YOLOv8/11性能对比分析
- 1.常用评估参数介绍
- 2. 模型训练过程对比
- 3.各模型性能评估
- 4.模型总体性能对比
- 四、可视化系统制作
- Pyqt5详细介绍
- 系统制作
- 【获取方式】
点击跳转至文末《完整相关文件及源码》获取
研究背景
随着全球经济一体化的加深,海上运输作为国际贸易的重要纽带,其安全性和效率变得尤为重要。然而,传统的船只监测方法依赖于人工观测或有限的自动化系统,这些方法在面对复杂多变的海洋环境时显得力不从心。
基于YOLO深度学习框架开发的遥感视角船只检测系统,利用先进的计算机视觉技术,能够对卫星图像、无人机拍摄的画面或地面监控摄像头捕捉到的影像进行高效分析,实现对水面船只的自动识别与定位,并且采用旋转框检测模型能够检测船只的长宽、角度等信息
。这项技术不仅提升了监测的准确性和实时性,还为应对各种海洋活动提供了强有力的数据支持,对于提升海上交通安全、优化航运管理以及加强海洋环境保护等方面具有不可替代的重要性。
旋转框检测优势
本文采用的是旋转框目标检测模型
,为什么采用旋转框检测而不采用传统的水平框检测呢?因为其相较于传统水平框的目标框(Axis-Aligned Bounding Box, AABB)具有以下优势:
1. 更紧密的物体包围
示例:图中蓝色框为传统水平框检测结果,红色为旋转框检测结果
问题:传统框是水平和垂直的矩形,无法贴合倾斜或长宽比悬殊的物体(如车辆、船只、文本等),导致框内包含大量无关背景区域。
优势:旋转框通过引入角度参数(如旋转角或方向角),能更精确地贴合物体轮廓,减少冗余背景,提升检测的语义准确性。
示例:
遥感图像中的船舶、自然场景中的倾斜文本,用旋转框可避免传统框的“空洞”区域。
2. 减少密集场景中的重叠问题
示例:左图为传统水平框检测结果,右图为旋转框检测结果
问题:传统框在物体密集或排列不规则时,检测框容易大面积重叠,导致非极大值抑制(NMS)误删正确检测。
优势:旋转框通过角度对齐物体,降低框之间的重叠率,缓解NMS的误判问题,提升召回率。
示例:
仓储物流中堆叠的货箱、交通场景中密集停放的车辆。
3. 提升倾斜物体的检测精度
问题:传统框对倾斜物体的标注会引入大量背景噪声,导致分类置信度下降或定位误差增大。
优势:旋转框通过方向感知建模,更适应物体的几何特性,尤其适合处理具有显著方向性的目标(如飞机、风力发电机叶片)。
示例:
航拍图像中不同朝向的飞机、医学影像中倾斜的器官结构。
4. 支持更复杂的下游任务
优势:旋转框提供的角度和形状信息可直接用于后续任务,如:
实例分割:更精准的物体掩膜生成。
姿态估计:结合角度信息推断物体朝向。
运动预测(如自动驾驶):通过方向角预判车辆行驶轨迹。
5. 特定领域的必要需求
遥感图像:建筑物、农田等目标通常具有任意方向,传统框难以满足检测需求。
文档分析:倾斜或弯曲的文本行需要旋转框准确定位。
工业检测:机械零件、PCB板元件的方向对缺陷检测至关重要。
6. 更严格的评估指标
传统IoU(交并比)对旋转框不敏感,旋转框通常使用 旋转IoU(Rotated IoU) 或 方向敏感损失函数,能更真实反映模型性能。
局限性
尽管旋转框有上述优势,但也面临挑战:
标注成本高:需要标注角度,工具和人工成本更高。
模型复杂度:需设计角度回归分支,可能增加训练难度。
计算开销:旋转框的IoU计算复杂度高于传统框。
总的来说,旋转框在密集场景、倾斜物体、方向敏感任务中优势显著,但其适用性需结合具体场景权衡。传统框因简单高效,仍是通用场景的主流选择,而旋转框是特定领域(如遥感、文本检测)的重要补充。
系统应用场景
海上交通管理: 通过实时监控特定海域内的船只动态,帮助海事管理部门优化航线规划,减少碰撞风险,提高航道利用率。
边境安全监控: 用于国家边界的海域监控,增强对非法越境行为的预警能力,维护国家安全。
渔业资源保护: 协助渔业监管机构监控禁渔区和限制捕捞区域,有效打击非法捕鱼活动,保护海洋生态平衡。
灾害响应与搜救行动: 在发生海上事故时,快速定位遇险船只的位置,为救援队伍提供关键信息,加快救援速度。
环境保护与污染控制: 监控油轮及其他可能造成环境污染的船只航行情况,及时发现并处理潜在的污染源,保护海洋环境。
科学研究: 为海洋学研究提供数据支持,如船只流量统计、海洋生物迁徙模式探索等,增进对海洋生态系统理解。
主要工作内容
本文的主要内容包括以下几个方面:
搜集与整理数据集:
搜集整理实际场景中遥感视角船只
的相关数据图片,并进行相应的数据处理,为模型训练提供训练数据集;训练模型:
基于整理的数据集,根据最前沿的YOLOv11/v8目标检测技术
训练旋转框目标检测模型,实现对需要检测的对象进行有效检测的功能;模型性能对比:对训练出的2种模型在验证集上进行了充分的结果评估和对比分析
,主要目的是为了揭示每个模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的优劣势
。这不仅帮助我们在实际应用中选择最适合特定需求的模型,还能够指导后续模型优化和调优工作,以期获得更高的检测准确率和速度。最终,通过这种系统化的对比和分析,我们能更好地理解模型的鲁棒性、泛化能力以及在不同类别上的检测表现,为开发更高效的计算机视觉系统提供坚实的基础。
可视化系统制作:
基于训练出的目标检测模型
,搭配Pyqt5
制作的UI界面,用python
开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测
,同时可以将图片或者视频检测结果进行保存
。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。
软件初始界面如下图所示:
检测结果界面如下:
注:右侧窗口中上面窗口为原始图片,下方窗口为图片检测结果。
一、软件核心功能介绍及效果演示
软件主要功能
1. 可用于实际场景中的遥感视角船只
检测,只有1个检测类别:['船只']
;
2. 支持图片、视频及摄像头
进行检测,同时支持图片的批量检测
;
3. 界面可实时显示目标位置
、目标总数
、置信度
、用时
等信息;
4. 支持图片
或者视频
的检测结果保存
;
5. 支持将图片的检测结果保存为csv文件
;
界面参数设置说明
置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;
检测结果说明
显示标签名称与置信度:
表示是否在检测图片上标签名称与置信度,显示默认勾选,如果不勾选则不会在检测图片上显示标签名称与置信度;
总目标数
:表示画面中检测出的目标数目;
目标选择
:可选择单个目标进行位置信息、置信度等信息查看。
旋转框相关信息:
中心点坐标
:表示旋转矩形框的中心点位置坐标;
旋转角度(°)
:表示矩形框长边与水平线之间小于90°的夹角
;
旋转框长
:表示旋转框的长边长度(px像素单位);
旋转框宽
:表示旋转框的宽长度(px像素单位);
主要功能说明
功能视频演示见文章开头,以下是简要的操作描述。
(1)图片检测说明
点击打开图片
按钮,选择需要检测的图片,或者点击打开文件夹
按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击保存
按钮,会对检测结果进行保存,存储路径为:save_data
目录下,同时会将图片检测信息保存csv文件
。
注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。
(2)视频检测说明
点击视频
按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击保存
按钮,会对视频检测结果进行保存,存储路径为:save_data
目录下。
(3)摄像头检测说明
点击打开摄像头
按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。
(4)保存图片与视频检测说明
点击保存
按钮后,会将当前选择的图片【含批量图片】或者视频
的检测结果进行保存,对于图片图片检测还会保存检测结果为csv文件
,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data
目录下。
【注:暂不支持视频文件的检测结果保存为csv文件格式。】
保存的检测结果文件如下:
图片文件保存的csv文件内容如下,包括图片路径、目标在图片中的编号、目标类别、置信度、中心点坐标、旋转框长、旋转框宽、旋转角度
。
二、YOLOv5/v8/v10/11介绍
关于YOLOv5/v8/v10/v11模型的详细介绍可以参考之前分享的博客文章《YOLOv5/v8/v10/v11详细介绍:网络结构,创新点》
,地址:
https://a-xu-ai.blog.csdn.net/article/details/143272589
二、模型训练、评估与推理
本文主要基于YOLOv8n-obb、YOLO11n-obb
这2种旋转框检测模型进行模型的训练,训练完成后对2种模型在验证集上的表现进行全面的性能评估及对比分析。模型训练和评估流程基本一致,包括:数据集准备、模型训练、模型评估。
下面主要以最新的YOLO11为例进行训练过程的详细讲解,YOLOv8的训练过程类似。
1. 数据集准备与训练
通过网络上搜集关于实际场景中水面垃圾
的相关图片,并使用roLabelImg标注工具对每张图片进行标注,分1个检测类别
:['船']
。
最终数据集一共包含12616张图片
,其中训练集包含9583张图片
,验证集包含3033张图片
。
部分数据集图像及标注如下图所示:
数据集各类别数目分布情况如下:
2.模型训练
准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets
目录,同时将检测的图片分为训练集与验证集放入Data
目录下。
自定义数据集格式
数据集格式
YOLO OBB格式通过其四个角点指定边界框,坐标在0和1之间归一化。它遵循以下格式:
class_index, x1, y1, x2, y2, x3, y3, x4, y4
在内部,YOLO以xywhr
格式处理损失和输出,该格式表示边界框的中心点(xy)、宽度、高度和旋转。
同时我们需要新建一个data.yaml
文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml
的具体内容如下:
train: D:\2MyCVProgram\7.ObbDetection\ShipObbDetection_v11\datasets\Data\images\train
val: D:\2MyCVProgram\7.ObbDetection\ShipObbDetection_v11\datasets\Data\images\valnc: 1
names: ['ship']
注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py
文件进行模型训练,epochs
参数用于调整训练的轮数,batch
参数用于调整训练的批次大小【根据内存大小调整,最小为1】,optimizer
设定的优化器为SGD
,训练代码如下:
#coding:utf-8
from ultralytics import YOLO
import matplotlib
matplotlib.use('TkAgg')# 模型配置文件
model_yaml_path = "ultralytics/cfg/models/11/yolo11-obb.yaml"
#数据集配置文件
data_yaml_path = 'datasets/Data/data.yaml'
#预训练模型
pre_model_name = 'yolo11n-obb.pt'if __name__ == '__main__':#加载预训练模型model = YOLO(model_yaml_path).load(pre_model_name)#训练模型results = model.train(data=data_yaml_path,epochs=150, # 训练轮数batch=4, # batch大小name='train_v11', # 保存结果的文件夹名称optimizer='SGD') # 优化器
模型常用训练超参数参数说明:
YOLO11 模型的训练设置包括训练过程中使用的各种超参数和配置
。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:
参数名 | 默认值 | 说明 |
---|---|---|
model | None | 指定用于训练的模型文件。接受指向 .pt 预训练模型或 .yaml 配置文件。对于定义模型结构或初始化权重至关重要。 |
data | None | 数据集配置文件的路径(例如 coco8.yaml ).该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。 |
epochs | 100 | 训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。 |
patience | 100 | 在验证指标没有改善的情况下,提前停止训练所需的epoch数。当性能趋于平稳时停止训练,有助于防止过度拟合。 |
batch | 16 | 批量大小,有三种模式:设置为整数(例如,’ Batch =16 ‘), 60% GPU内存利用率的自动模式(’ Batch =-1 ‘),或指定利用率分数的自动模式(’ Batch =0.70 ')。 |
imgsz | 640 | 用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。 |
device | None | 指定用于训练的计算设备:单个 GPU (device=0 )、多个 GPU (device=0,1 )、CPU (device=cpu ),或苹果芯片的 MPS (device=mps ). |
workers | 8 | 加载数据的工作线程数(每 RANK 多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。 |
name | None | 训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。 |
pretrained | True | 决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。 |
optimizer | 'auto' | 为训练模型选择优化器。选项包括 SGD , Adam , AdamW , NAdam , RAdam , RMSProp 等,或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性 |
lr0 | 0.01 | 初始学习率(即 SGD=1E-2 , Adam=1E-3 ) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。 |
lrf | 0.01 | 最终学习率占初始学习率的百分比 = (lr0 * lrf ),与调度程序结合使用,随着时间的推移调整学习率。 |
3. 训练结果评估
在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv11在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/
目录下找到训练过程及结果文件,如下所示:
各损失函数作用说明:
定位损失box_loss
:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss
:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss)
:DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:
我们通常用PR曲线
来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP
表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。mAP@.5:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的mAP@0.5
值为0.9
,对于小目标检测来说,检测结果还是十分错的。
模型在验证集上的评估结果如下:
4. 使用模型进行推理
模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt
文件,在runs/train/weights
目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:
#coding:utf-8
from ultralytics import YOLO
import cv2# 所需加载的模型目录
path = 'models/best.pt'
# 需要检测的图片地址
img_path = "TestFiles/P1929__1024__309___0.jpg"# 加载预训练模型
# conf 0.25 置信度阈值
# iou 0.7 iou阈值
model = YOLO(path, task='obb')
# model = YOLO(path, task='obb',conf=0.5)# 检测图片
results = model(img_path)
res = results[0].plot(labels=False)# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR)
cv2.imshow("Result", res)
# cv2.imwrite("result.jpg", res)
cv2.waitKey(0)
执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
更多检测结果示例如下:
三、YOLOv8/11性能对比分析
本文在介绍的数据集上分别训练了YOLOv8n-obb、YOLO11n-obb
这4种模型用于对比分析,训练轮数为150个epoch
。主要分析这2种模型的训练结果在Precision(精确度)
、Recall(召回率)
、mAP50
、mAP50-95
、F1-score
等性能指标上的表现,以选出更适合本数据集的最优模型。
1.常用评估参数介绍
-
Precision(精确度):
-
精确度是针对预测结果的准确性进行衡量的一个指标,它定义为预测为正例(即预测为目标存在)中真正正例的比例。
-
公式:
-
其中,TP(True Positives)是正确预测为正例的数量,FP(False Positives)是错误预测为正例的数量。
-
-
Recall(召回率):
-
召回率衡量的是模型检测到所有实际正例的能力,即预测为正例的样本占所有实际正例的比例。
-
公式:
-
其中,FN(False Negatives)是错误预测为负例(即漏检)的数量。
-
-
mAP50(平均精度,Mean Average Precision at Intersection over Union 0.5):
- mAP50是目标检测中一个非常重要的指标,它衡量的是模型在IoU(交并比)阈值为0.5时的平均精度。IoU是一个衡量预测边界框与真实边界框重叠程度的指标。
- mAP50通常在多个类别上计算,然后取平均值,得到整体的平均精度。
- 计算方法:对于每个类别,首先计算在IoU阈值为0.5时的精度-召回率曲线(Precision-Recall Curve),然后计算曲线下的面积(AUC),最后对所有类别的AUC取平均值。
这三个指标共同提供了对目标检测模型性能的全面评估:
- 精确度(Box_P)关注预测的准确性,即减少误检(FP)。
- 召回率(Box_R)关注检测的完整性,即减少漏检(FN)。
- mAP50提供了一个平衡精确度和召回率的指标,同时考虑了模型在不同类别上的表现。
在实际应用中,根据具体需求,可能会更侧重于精确度或召回率,例如在需要减少误报的场合,可能会更重视精确度;而在需要确保所有目标都被检测到的场合,可能会更重视召回率。mAP50作为一个综合指标,能够帮助研究者和开发者平衡这两个方面,选择最合适的模型。
- mAP50-95:
- 这是衡量目标检测模型在不同IoU阈值下性能的指标。IoU是预测的边界框与真实边界框之间的重叠程度,mAP50-95计算了从IoU为0.5到0.95的范围内,模型的平均精度。
- 精度-召回率曲线在不同的IoU阈值上绘制,然后计算曲线下的面积(AUC),最后取这些AUC的平均值,得到mAP50-95。
- 这个指标反映了模型在不同匹配严格度下的性能,对于评估模型在实际应用中的泛化能力非常重要。
- F1分数:
-
这是精确度和召回率的调和平均数,能够平衡两者的影响,是一个综合考虑精确度和召回率的指标。
-
公式:
-
当精确度和召回率差距较大时,F1分数能够提供一个更全面的模型性能评估。
-
2. 模型训练过程对比
YOLOv8n-obb、YOLO11n-obb
这4种模型的训练过程损失曲线与性能曲线如下。
训练过程的损失曲线对比如下:
训练过程中的精确度(Precision)、召回率(Recall)、平均精确度(Mean Average Precision, mAP)等参数的对比如下:
直观的从曲线上看,2种模型在模型精度上看,差别不是很大。下面对具体的性能数值进行详细分析。
3.各模型性能评估
在YOLOv8n、YOLO11n
这3种模型训练完成后,我们可以通过验证集对各个模型分别进行性能评估。
YOLOv8n模型在验证集上的性能评估结果如下:
表格列说明:
Class:表示模型的检测类别名称;
Images:表示验证集图片数目;
Instances:表示在所有图片中目标数;
P:表示精确度Precison;
R:表示召回率Recall;
mAP50:表示IoU(交并比)阈值为0.5时的平均精度。
mAP50-95:表示从IoU为0.5到0.95的范围内【间隔0.05】,模型的平均精度。
表格行说明:
第一行all,除Instances是
所有类别目标数之和
,其他参数表示所有类别对应列参数的平均值
;
其他行,表示每一个类别对应参数的值。
YOLO11模型在验证集上的性能评估结果如下:
4.模型总体性能对比
下面我们从总体的平均指标上对YOLOv5n、YOLOv8n、YOLOv10n、YOLO11n
这4种模型进行对比分析。
下表是YOLOv5n、YOLOv8n、YOLOv10n、YOLO11n
这4不同模型目标检测结果的整体性能平均指标对比情况:
Model | Precision | Recall | mAP50 | mAP50-95 | F1-score |
---|---|---|---|---|---|
YOLOv8n | 91.90 | 85.40 | 90.20 | 72.90 | 88.50 |
YOLO11n | 91.90 | 84.80 | 90.00 | 72.90 | 88.20 |
为了方便更加直观的查看与对比各个结果,同样我们将表格绘制成图表的形式进行分析。
从上述对比数据中,我们可以看出:
从各项性能评估指标上看,YOLOv8n-obb与YOLOv11n-obb相差不大。YOLOv8n-obb在召回率Recall、mAP50与F1-score指标上略优于YOLOv11n-obb。
四、可视化系统制作
基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】
Pyqt5详细介绍
关于Pyqt5的详细介绍可以参考之前的博客文章:《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》
,地址:
https://a-xu-ai.blog.csdn.net/article/details/143273797
系统制作
博主基于Pyqt5框架开发了此款遥感视角船只智能检测系统
,即文中第一部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存
。
通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。
关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。
【获取方式】
关注末尾名片VX,发送【源码】获取下载方式
本文涉及到的完整全部程序文件:包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频等(见下图),获取方式见文末:
注意:该代码基于Python3.9开发,运行界面的主程序为
MainProgram.py
,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt
配置软件运行所需环境。