Yolov5部署训练及代码解读

5.Yolov5实操训练(重点)

一、前言

1.集成的资源,包括我自己做成的成品,可以直接train与detect。需要加qq群:938162384
在这里插入图片描述

2.本文目的主要是能够让读者复现,直接使用,而且少讲原理。如果想深入了解yolov5的原理,可以去看热度比较高的博主做的

3.如果是制作自己的数据集,那么有一个自己给训练集打标签的过程,那么需要看第五、六部分;如果用公开的数据集,那么可跳过第五部分

4.本次大更新,采用2022.06.28版本,应该是v6.1,

二、学习内容

2020年6月25日,Ultralytics发布了YOLOV5 的第一个正式版本,其性能与YOLO V4不相伯仲,同样也是现今最先进的对象检测技术,并在推理速度上是目前最强,yolov5按大小分为四个模型yolov5s、yolov5m、yolov5l、yolov5x。

操作的流程图

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Coiw576i-1678162744925)(../视觉神经网络学习总结/typora笔记图库/2021090914151250.jpg)]

三、版本与配置声明

# YOLOv5 requirements
# Usage: pip install -r requirements.txt# Base ----------------------------------------
matplotlib>=3.2.2
numpy>=1.18.5
opencv-python>=4.1.1
Pillow>=7.1.2
PyYAML>=5.3.1
requests>=2.23.0
scipy>=1.4.1  # Google Colab version
torch>=1.7.0
torchvision>=0.8.1
tqdm>=4.41.0
protobuf<4.21.3  # https://github.com/ultralytics/yolov5/issues/8012# Logging -------------------------------------
tensorboard>=2.4.1
# wandb# Plotting ------------------------------------
pandas>=1.1.4
seaborn>=0.11.0# Export --------------------------------------
# coremltools>=4.1  # CoreML export
# onnx>=1.9.0  # ONNX export
# onnx-simplifier>=0.3.6  # ONNX simplifier
# scikit-learn==0.19.2  # CoreML quantization
# tensorflow>=2.4.1  # TFLite export
# tensorflowjs>=3.9.0  # TF.js export
# openvino-dev  # OpenVINO export# Extras --------------------------------------
ipython  # interactive notebook
psutil  # system utilization
thop  # FLOPs computation
# albumentations>=1.0.3
# pycocotools>=2.0  # COCO mAP
# roboflow

四、Yolov5的准备

1.基本的Python环境配置
我采用的是Anaconda+Pycharm的配置,大家要了解一些关于pip的指令,方便管理包,这里就不赘述了。

2.下载Yolov5
https://github.com/ultralytics/yolov5,放在合理的位置,如果这个下的慢的话,通过qq群下载。

3.安装依赖库
当我们下好yolov5后,可以发现有一个requirements.txt文件,我们可以使用Anaconda Prompt(或者cmd或者pycharm的终端),执行下面一行代码(要requirements.txt所在文件夹下使用cmd等),即可一步到位全部下完。

pip install -r requirements.txt

这个过程下载很慢,可以进行pip加速,参考如下博客:

https://blog.csdn.net/zhengyuehai/article/details/124081661?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522167807035016800188592370%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=167807035016800188592370&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-124081661-null-null.142^v73^insert_down1,201^v4^add_ask,239^v2^insert_chatgpt&utm_term=pycharm%E7%BB%88%E7%AB%AF%E5%AE%89%E8%A3%85pip%E5%A4%AA%E6%85%A2&spm=1018.2226.3001.4187

大部分都能pip install 。重点说两个

(1)对于Pytorch,如果文件较大没有办法下完的话,可以用我下面的网址单独下载whl文件,

https://download.pytorch.org/whl/torch_stable.html

torch>=1.7.0
torchvision>=0.8.1

在这里插入图片描述

(2)对于wandb,wandb安装方法,这个好像不是必须的,但我还是下了,版本为0.12.19,刚好能兼容,作用就是对训练分析,如图所示

wandb安装方法:如果使用pip加速,直接安装就行不需要注册

pip install wandb

否则参考如下:

https://blog.csdn.net/hhhhhhhhhhwwwwwwwwww/article/details/116124285?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162791597216780265438950%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=162791597216780265438950&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~first_rank_v2~rank_v29-8-116124285.first_rank_v2_pc_rank_v29&utm_term=wandb&spm=1018.2226.3001.4187

wandb实际上是非必须的,如果影响到了使用,那么在程序中可以把它禁止使用,不影响任何效果。在yolov5/utils/loggers/wandb/wandb_utils.py前面几行,加入如下图所示的第28行输入wandb=None

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6aOXYrmw-1678162744929)(../视觉神经网络学习总结/typora笔记图库/a6109999d3be468ba80a9d79ffc3e498.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6FhnwXpw-1678162744934)(../视觉神经网络学习总结/typora笔记图库/20210803125721601.jpg)]

四、初步测试:detect.py

下载完yolov5后,什么都不用改,运行detect.py

这个是帮你检测能不能正常运行的

若正常:

在runs/detect/exp中能发现被处理过的标签,说明成功了!若程序报错,大概率是因为有的库版本不正确或者还未安装,这个自己调试一下即可,应该没有太大难度

五、训练集要求及路径要求

训练集至少100张起步才有效果。要想效果好,用公开的数据集,几千张才会有较好的效果。

训练集就是你需要train并用于detect的东西,我以玉米作为例子,你可以跟着我来一遍,资源在qq群。要做自己的训练集的话再看第五步。跟着我的话可以不用做标签,因为资源中已经做好了

如下图所示创建文件夹,让操作更清晰方便

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZkIa9dhW-1678162744936)(../视觉神经网络学习总结/typora笔记图库/17cfc2e85b824fbdbbc9b9d31c107d80.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-q1oiHevV-1678162744938)(../视觉神经网络学习总结/typora笔记图库/43.png)]

images是图片,labels是标签,train的话是用于训练的,test就是用于测试的,这里一定一定要照着我的格式去建文件夹(seed_detection_model指训练的数据文件夹,这个可以改成你们的数据集的名字,但是其余的一定要一样),不然后面训练会出现找不到文件的报错

六、制作自己的数据集之制作标签

可采用labelme和labelimg,前者需要json标注格式转txt,后者需要xml标注格式转txt。我只用过前者,只给出前者的用法。

1.下载labelme

https://github.com/wkentaro/labelme,如果下载得慢的话见文末资源

2.安装依赖库

在pycharm终端里pip install pyqt5和pip install labelme

3.labelme操作

然后在pycharm终端里输入labelme,打开界面如下

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ph5T6EsC-1678162744940)(../视觉神经网络学习总结/typora笔记图库/20210802201634944.png)]

可以选择打开一个文件或者文件夹,如果是打开文件夹的话就会是下面那样子

右击,点击rectangle,即画矩形框,框选你要识别训练的东西,举种子识别的例子

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-T6y5LXjG-1678162744942)(../视觉神经网络学习总结/typora笔记图库/image-20230307115749717.png)]

框选之后输入标签的名字,注意,必须选择矩形框,否则json转txt会出错,可以框选多个作为标签。框选完一张图后保存,然后接着下一张图。保存的文件格式是.json

4.json转txt

由于yolov5只认txt而不认json,因此还要有一个转换的过程

在yolov5-master中创建一个.py文件,代码如下

import json
import osname2id = {'corn': 0, 'soybean': 1}  # 标签名称def convert(img_size, box):dw = 1. / (img_size[0])dh = 1. / (img_size[1])x = (box[0] + box[2]) / 2.0 - 1y = (box[1] + box[3]) / 2.0 - 1w = box[2] - box[0]h = box[3] - box[1]x = x * dww = w * dwy = y * dhh = h * dhreturn (x, y, w, h)def decode_json(json_floder_path, json_name):txt_name = 'C:\\Users\\17616\\Desktop\\txt\\' + json_name[0:-5] + '.txt'# 存放txt的绝对路径txt_file = open(txt_name, 'w')json_path = os.path.join(json_floder_path, json_name)data = json.load(open(json_path, 'r', encoding='gb2312', errors='ignore'))img_w = data['imageWidth']img_h = data['imageHeight']for i in data['shapes']:label_name = i['label']if (i['shape_type'] == 'rectangle'):x1 = int(i['points'][0][0])y1 = int(i['points'][0][1])x2 = int(i['points'][1][0])y2 = int(i['points'][1][1])bb = (x1, y1, x2, y2)bbox = convert((img_w, img_h), bb)txt_file.write(str(name2id[label_name]) + " " + " ".join([str(a) for a in bbox]) + '\n')if __name__ == "__main__":json_floder_path = 'C:\\Users\\17616\\Desktop\\json\\'# 存放json的文件夹的绝对路径json_names = os.listdir(json_floder_path)for json_name in json_names:decode_json(json_floder_path, json_name)

建两个文件夹

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tjBQixPT-1678162744945)(../视觉神经网络学习总结/typora笔记图库/image-20230306171437229.png)]

转化完后大概会是这样子,如果一张图有多个标签的话,这个数据就会变多,

转换完的txt文件务必放在datasets/labels/train文件夹中

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ns3EmSDj-1678162744946)(../视觉神经网络学习总结/typora笔记图库/20210802232344688.png)]

简单说明一下,第一个数字是数据集中第0个种类,其余均是与坐标相关的值,软件生成,可不用管。

5.xml转txt

如果使用别的打标签文件或者是原先已经打好的xml文件标签,那么我也给出相关的转换代码

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import joindef convert(size, box):# size=(width, height)  b=(xmin, xmax, ymin, ymax)# x_center = (xmax+xmin)/2        y_center = (ymax+ymin)/2# x = x_center / width            y = y_center / height# w = (xmax-xmin) / width         h = (ymax-ymin) / heightx_center = (box[0] + box[1]) / 2.0y_center = (box[2] + box[3]) / 2.0x = x_center / size[0]y = y_center / size[1]w = (box[1] - box[0]) / size[0]h = (box[3] - box[2]) / size[1]# print(x, y, w, h)return (x, y, w, h)def convert_annotation(xml_files_path, save_txt_files_path, classes):xml_files = os.listdir(xml_files_path)# print(xml_files)for xml_name in xml_files:# print(xml_name)xml_file = os.path.join(xml_files_path, xml_name)out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')out_txt_f = open(out_txt_path, 'w')tree = ET.parse(xml_file)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):difficult = obj.find('difficult').textcls = obj.find('name').text# if cls not in classes or int(difficult) == 1:#     continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))# b=(xmin, xmax, ymin, ymax)# print(w, h, b)bb = convert((w, h), b)out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')if __name__ == "__main__":# 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件# 1、需要转化的类别classes = ['People', 'Car', 'Bus', 'Motorcycle', 'Lamp', 'Truck']# 2、voc格式的xml标签文件路径xml_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_xml'# xml_files1 = r'C:/Users/GuoQiang/Desktop/数据集/标签1'# 3、转化为yolo格式的txt标签文件存储路径save_txt_files1 = r'D:\Technology\Python_File\yolov5\M3FD\Annotation_txt'convert_annotation(xml_files1, save_txt_files1, classes)

七、修改配置文件

1.coco128.yaml->seed_detection_parameter.yaml

在yolov5/data/coco128.yaml中先复制一份,粘贴到Seed_detection_model文件夹中,改名为Seed_detection_model_parameter.yaml(意义为Seed_detection_model的参数配置)

Seed_detection_model_parameter.yaml(文件需要修改的参数是nc与names。nc是标签名个数,names就是标签的名字,检测目标例子中有2个标签[玉米,大豆],标签名字都如下。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-COEHj0MV-1678162744949)(../视觉神经网络学习总结/typora笔记图库/image-20230306180758641.png)]

说明:

path是绝对路径

train是在path绝对路径条件下的训练集路径,即:Seed_detection_model\datasets\images\train

val同上,但是是验证集,这里我为了方便,让训练集和验证集是一个,也没啥大问题。

test可不填

关于训练集、验证集、测试集三者关系:

https://blog.csdn.net/nkwshuyi/article/details/94593053

nc是训练集中种类的个数,names是他们对应的名字,这个顺序不要混了,尤其是自己打标签时,会有对应的顺序的。

2.yolov5x.yaml->seed_detection_model.yaml

yolov5有4种配置,不同配置的特性如下,我这里选择yolov5x,效果较好,但是训练时间长,也比较吃显存

yolov5有4种配置,不同配置的特性如下,我这里选择yolov5x,效果较好,但是训练时间长,也比较吃显存

yolov5/models先复制一份yolov5x.yaml至Seed_detection_model文件夹中,更名为seed_detection_model.yaml(意为模型),只将如下的nc修改为训练集种类即可

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-OQMjCLjs-1678162744952)(../视觉神经网络学习总结/typora笔记图库/image-20230306181306431.png)]

八、开始训练train

1.调参

在train.py,找到def parse_opt(known=False)这行,这下面是我们要修改的程序部分

def parse_opt(known=False):parser = argparse.ArgumentParser()parser.add_argument('--weights', type=str, default='yolov5x.pt', help='initial weights path')    # 修改处 初始权重parser.add_argument('--cfg', type=str, default=ROOT /'Seed_detection_model/Seed_detection_model.yaml', help='model.yaml path')  # 修改处 训练模型文件parser.add_argument('--data', type=str, default=ROOT /'Seed_detection_model/Seed_detection_parameter.yaml', help='dataset.yaml path')  # 修改处 数据集参数文件parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch-low.yaml', help='hyperparameters path')  # 超参数设置parser.add_argument('--epochs', type=int, default=100)  # 修改处 训练轮数parser.add_argument('--batch-size', type=int, default=10, help='total batch size for all GPUs, -1 for autobatch')  # 修改处 batch sizeparser.add_argument('--imgsz', '--img', '--img-size', type=int, default=300, help='train, val image size (pixels)')# 修改处 图片大小parser.add_argument('--rect', action='store_true', help='rectangular training')parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')parser.add_argument('--noval', action='store_true', help='only validate final epoch')parser.add_argument('--noautoanchor', action='store_true', help='disable AutoAnchor')parser.add_argument('--noplots', action='store_true', help='save no plot files')parser.add_argument('--evolve', type=int, nargs='?', const=300, help='evolve hyperparameters for x generations')parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')parser.add_argument('--cache', type=str, nargs='?', const='ram', help='--cache images in "ram" (default) or "disk"')parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')parser.add_argument('--device', default='cpu', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')#修改处,选择parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')parser.add_argument('--optimizer', type=str, choices=['SGD', 'Adam', 'AdamW'], default='SGD', help='optimizer')parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')parser.add_argument('--workers', type=int, default=4, help='max dataloader workers (per RANK in DDP mode)')#修改处parser.add_argument('--project', default=ROOT / 'runs/train', help='save to project/name')parser.add_argument('--name', default='exp', help='save to project/name')parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')parser.add_argument('--quad', action='store_true', help='quad dataloader')parser.add_argument('--cos-lr', action='store_true', help='cosine LR scheduler')parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')parser.add_argument('--patience', type=int, default=100, help='EarlyStopping patience (epochs without improvement)')parser.add_argument('--freeze', nargs='+', type=int, default=[0], help='Freeze layers: backbone=10, first3=0 1 2')parser.add_argument('--save-period', type=int, default=-1, help='Save checkpoint every x epochs (disabled if < 1)')parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')# Weights & Biases argumentsparser.add_argument('--entity', default=None, help='W&B: Entity')parser.add_argument('--upload_dataset', nargs='?', const=True, default=False, help='W&B: Upload data, "val" option')parser.add_argument('--bbox_interval', type=int, default=-1, help='W&B: Set bounding-box image logging interval')parser.add_argument('--artifact_alias', type=str, default='latest', help='W&B: Version of dataset artifact to use')

我标注“修改处”的,是一定要修改的;其他的注释是一些较为重要的参数,对于小白而言不改也可。具体修改的地方为defalut后

479行:是我们训练的初始权重的位置,是以.pt结尾的文件,第一次训练用别人已经训练出来的权重。可能有朋友会想,自己训练的数据集和别人训练的数据集不一样,怎么能通用呢?实际上他们是通用的,后面训练会调整过来。而如果不填已有权重,那么训练效果可能会不好;

480行:训练模型文件,在本项目中对应wzry_model.yaml;

481行:数据集参数文件,在本项目中对于wzry_parameter.yaml;

482行:超参数设置,是人为设定的参数。包括学习率啥的等等,可不改;

483行:训练轮数,决定了训练时间与训练效果。如果选择训练模型是yolov5x.yaml,那么大约200轮数值就稳定下来了(收敛);

484行:批量处理文件数,这个要设置地小一些,否则会out of memory。这个决定了我们训练的速度;

485行:图片大小,虽然我们训练集的图片是已经固定下来了,但是传入神经网络时可以resize大小,太大了训练时间会很长,且有可能报错,这个根据自己情况调小一些;

487行:断续训练,如果说在训练过程中意外地中断,那么下一次可以在这里填True,会接着上一次runs/exp继续训练

496行:GPU加速,填0是电脑默认的CUDA,前提是电脑已经安装了CUDA才能GPU加速训练,安装过程可查博客

501行:多线程设置,越大读取数据越快,但是太大了也会报错,因此也要根据自己状况填小。


2.结果

运行效果正确的应该是这个样子:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ICgg0P0n-1678162744953)(../视觉神经网络学习总结/typora笔记图库/image-20230307092856675.png)]
结果保存在runs/train/exp中,多次训练就会有exp1、exp2、等等

  • P
    Precision:精确率,对类A来说(下面提到的都是被预测成A的):P=正确数/预测总数
    或P=正确数/正确数+错误数,即,预测的东西正确了多少百分比。
  • R
    Recall:召回率,对类A来说(下面提到的都是被归为A类的):R=预测正确数/真实A类总数。
    或R=预测正确数/被预测到的A+未被预测到的A,即,预测的东西找到了多少百分比。
  • mAP
    mean Average Precision:每个类的AP值的平均数。
    用于表达多类标签预测的性能,如AP一样,mAP越高,性能越好。
    mAP@.5:
    当loU为0.5时的mAP
    mAP@.5:.95:
    当loU为range(0.5:0.95:0.05)时的mAP的平均数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-87Hc9SfL-1678162744956)(../视觉神经网络学习总结/typora笔记图库/image-20230307093805594.png)]

best.pt和last.pt是我们训练出来的权重文件,比较重要,用于detect.py。last是最后一次的训练结果,best是效果最好的训练结果(只是看起来,但是泛化性不一定强)。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qyABVAat-1678162744957)(../视觉神经网络学习总结/typora笔记图库/image-20230307093032421.png)]

九、识别检测detect.py

1.找到def parse_opt():这行,以下是我们要调参的位置

def parse_opt():parser = argparse.ArgumentParser()parser.add_argument('--weights', nargs='+', type=str, default=ROOT /'runs/train/exp/weights/last.pt', help='model path(s)')  # 修改处 权重文件parser.add_argument('--source', type=str, default=0, help='file/dir/URL/glob, 0 for webcam')# 修改处 图像、视频或摄像头parser.add_argument('--data', type=str, default=ROOT / 'Seed_detection_model/Seed_detection_parameter.yaml', help='(optional) dataset.yaml path')  # 修改处  参数文件parser.add_argument('--imgsz', '--img', '--img-size', nargs='+', type=int, default=[640], help='inference size h,w')  # 修改处 高 宽parser.add_argument('--conf-thres', type=float, default=0.5, help='confidence threshold')  # 置信度parser.add_argument('--iou-thres', type=float, default=0.45, help='NMS IoU threshold')# 非极大抑制parser.add_argument('--max-det', type=int, default=1000, help='maximum detections per image')parser.add_argument('--device', default='cpu', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')  # 修改处parser.add_argument('--view-img', action='store_true', help='show results')parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')parser.add_argument('--save-crop', action='store_true', help='save cropped prediction boxes')parser.add_argument('--nosave', action='store_true', help='do not save images/videos')parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --classes 0, or --classes 0 2 3')parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')parser.add_argument('--augment', action='store_true', help='augmented inference')parser.add_argument('--visualize', action='store_true', help='visualize features')parser.add_argument('--update', action='store_true', help='update all models')parser.add_argument('--project', default=ROOT / 'runs/detect', help='save results to project/name')parser.add_argument('--name', default='exp', help='save results to project/name')parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')parser.add_argument('--line-thickness', default=3, type=int, help='bounding box thickness (pixels)')parser.add_argument('--hide-labels', default=False, action='store_true', help='hide labels')parser.add_argument('--hide-conf', default=False, action='store_true', help='hide confidences')parser.add_argument('--half', action='store_true', help='use FP16 half-precision inference')parser.add_argument('--dnn', action='store_true', help='use OpenCV DNN for ONNX inference')

217行:填我们训练好的权重文件路径

218行:我们要检测的文件,可以是图片、视频、摄像头。填0时为打开电脑默认摄像头

219行:数据集参数文件,同上

220行:图片大小,同上

221行:置信度,当检测出来的置信度大于该数值时才能显示出被检测到,就是显示出来的框框

222行:非极大抑制,具体不赘述了,自行查阅,可不改

224行:GPU加速,同上

    """weight:表示模型的权重参数的路径source:表示数据源,可以是图片文件、目录、URL 0为网络摄像头imgsz:表示输入图片的大小 默认640*640conf-thres:置信度阈值,默认0.25 用于非极大值抑制iou-thres:iou阈值,默认0.45 用于非极大值抑制max-det:图片最多可以有多少个预测框device:程序被装载的位置 CPU或GPUview-img:是否展示图片 默认Falsesave-text:是否将预测框保存为txt 默认为Falsesave-conf: 是否将置信度保存到txt中 默认Falsesave-crop: 是否保存裁剪预测框图片, 默认为Falsenosave: 不保存图片、视频 默认False 即保存结果classes: 设置只保留某一部分类别, 形如0或者0 2 3agnostic-nms: 是否多个类别一起计算nms 默认为Falseaugment: 推断时是否进行数据增强 默认为Falsevisualize: 是否可视化网络层输出特征 默认为Falseupdate: 如果为True,则对所有模型进行strip_optimizer操作,去除pt文件中的优化器等信息,默认为Falseproject: 保存结果的路径name: 保存结果的目录名exist_ok: 是否重新结果目录 默认为Falseline-thickness: 画框的线条粗细hide-labels: 可视化时隐藏预测类别hide-conf: 可视化时隐藏置信度half: 是否使用F16精度推理, 半进度提高检测速度dnn: 用OpenCV DNN预测"""

2.结果

结果在runs/detect/exp中

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qyiZLt82-1678162744960)(../视觉神经网络学习总结/typora笔记图库/image-20230307111243681.png)]

yolov5种子检测

十、debug

我猜测大多数问题为:

1.xxx not found,明明自己做了标签但是没找到。那很有可能是你的文件路径没照着我去做。细心的朋友发现了,在wzry_parameter时只填了训练集的图片,没填标签,那它能检测到标签吗?可以检测到,是因为文件夹命名的原因,标签文件夹命名为labels就可。

2.显卡爆了,那就调低train中我列出来的那几行default

3.有朋友说他在训练时,box obj cls labels的值为0或nan。正常情况下是正常的数(我发了训练的时候的图片),我猜测可能是训练集标签没做好(数据集中存在标注错误的东西、训练难度大) 或者 路径没写对 或者 超参数 没调好

4.路径不要带中文,建议改成全英文,否则可能会出现意料之外的错误

5.pycharm闪退,很有可能是因为你电脑out of memory了,电脑寄了,调小batch size和workers。

6.index 9 is out of bounds for axis 1 with size 2之类的问题,可能是标签txt文件里的种类数字超过了在yaml配置文件中nc与names未配置好,标签文件与配置文件的classes未配对上。因此,txt标签文件与配置文件都要仔细检查一下。

7.No labels found之类的问题,1:要将数据集标签格式转化为txt格式,2:要将数据集的目录名字改成我写出来的那样,尤其是images和labels。

十一、是否可以部署至树莓派?

之前看别人用yolov5x.yaml作网络,根本跑不动,三秒一帧。

在B站上有很多演示,如果部署会非常卡,就算部署,也是采用最轻量级的yolov5s.yaml。

目前正在研究这个事,最好的解决方法是采用darknet框架的yolo-fastest,fps能达到10。后续我会写一个教程

十二、参考资料

1.YOLO v5 代码精读 (1) detect.py模块以及非极大值抑制

https://blog.csdn.net/qq_63708623/article/details/128448549

2.YOLO v5 代码精读 (2) train.py模块

https://blog.csdn.net/qq_63708623/article/details/128486944

3.YOLO v5 代码精读(3)YOLO网络结构

https://blog.csdn.net/qq_63708623/article/details/128543267

4.YOLOv5深度剖析(4)

https://blog.csdn.net/qq_63708623/article/details/129207668

5.YOLO 模型的评估指标(5)——IOU、Precision、Recall、F1-score、mAP

https://blog.csdn.net/qq_63708623/article/details/128508776

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/35595.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入解读命令执行:基本概念、攻击技术和防范应对

数据来源 部分数据来源&#xff1a;ChatGPT 命令执行简介 01 命令执行漏洞产生原因 命令执行漏洞的产生原因主要是输入验证不严格、代码逻辑错误、应用程序或系统中缺少安全机制等。攻击者可以通过构造特定的输入向应用程序或系统注入恶意代码&#xff0c;从而在受攻击的主…

技术,并不值钱——阿里员工失业记

上一篇&#xff1a;Java危矣&#xff01; 看到网友分享自己被阿里裁员的经历&#xff0c;挺有感触的&#xff0c;转发给大家—— 01谈话 我的顶头上司已经走了&#xff0c;我坐着&#xff0c;看着对面空空的椅子&#xff0c;有点没缓过神来 离职 只剩下这两个字在我脑袋里不断徘…

20230411笔记-MTK天玑开发者日(北京站)

1. 天玑开发者日“追光 行动”主题 来源&#xff1a;近期搜索Unity比较多&#xff0c;csdn给我发了短信邀请&#xff0c;参加 天玑开发者日-北京站 活动。 消息&#xff1a;百家号 MediaTeK 联发科官宣天玑开发者日&#xff0c;4 月 11 日起召开 2.活动议程 天玑开发者日-追光…

“智能”创造未来:PDU智能化全面提升IDC数据中心用电能效!

一个月前&#xff0c;万众期盼的《流浪地球2》如期上映&#xff0c;无论是剧情还是特效&#xff0c;让广大观众享受到一次久违的来自中国科幻的震撼&#xff0c;时至今日仍是大家茶余饭后津津乐道的热点谈资。说起这部片子里&#xff0c;最让人紧张的部分&#xff0c;还得数为了…

【Zigbee】解密Zigbee地址分配——你需要知道的一切

&#x1f496; 作者简介&#xff1a;大家好&#xff0c;我是Zeeland&#xff0c;全栈领域优质创作者。&#x1f4dd; CSDN主页&#xff1a;Zeeland&#x1f525;&#x1f4e3; 我的博客&#xff1a;Zeeland&#x1f4da; Github主页: Undertone0809 (Zeeland) (github.com)&…

涵子来信——AI的无限未来——谈谈想法

大家好&#xff1a; 这一次&#xff0c;我想要跟大家讲一讲我对AI的看法和未来的展望&#xff0c;谈谈我的想法。 AI&#xff08;Artificial Intelligence&#xff0c;中文人工智能&#xff09;&#xff0c;是我们生活中处处都可以见到的&#xff0c;小到一个语音助手&#x…

ChatGPT带火的提示工程师,构造自己的提示语

ChatGPT是一个大语言模型&#xff0c;学过全球几乎公开的大部分有效知识库&#xff0c;它什么都懂。 ChatGPT的风靡&#xff0c;爆火了一个年薪百万的提示工程师这个新就业岗位。 提示工程师&#xff0c;也就是AI训练师&#xff0c;即通过与AI交互写出相关提示&#xff0c;以帮…

收到**公司的律师函,我慌了

关注星标公众号&#xff0c;不错过精彩内容 作者 | strongerHuang 微信公众号 | 嵌入式专栏 在我的技术交流群&#xff0c;经常看到有朋友说&#xff1a;“收到了**软件公司的律师函”。其中AD的最多&#xff0c;其次&#xff0c;这两年Keil的律师函也出现了。 有的人收到律师函…

整理部分因软件版权发律师函的公司

软件名称 英文软件名称 厂商 厂商网站 国内代理商 代理商网站 维权历史状况 WinRAR WinRAR win.rar GmbH. http://www.rarlab.com/ 上海软众信息 http://www.winrar.com.cn/ 硕思闪客精灵 无 思杰马克丁 http://www.shankejingling.com/ 给下载站个人站…

手把手教你突破 GPT-4.0 3小时25次的限速!

很多人很郁闷 &#xff0c;ChatGPT Plus账号在浏览器上使用GPT4.0模型的时候&#xff0c;会受到官方的限制&#xff0c;每3小时只能对话25次&#xff0c;是真的不够用。 但是在手机上使用GPT4.0模型则不会有限制&#xff0c;既然这样&#xff0c;那我们是否也可以在浏览器上无限…

我的同事胃癌去世了,从检查到死亡不到半年……

作者&#xff1a;iamlaosong 听到远方同事朱震环去世的消息&#xff0c;我是无比震惊的&#xff0c;虽然不在一个城市&#xff0c;因为专业的关系还是经常联系的。她年轻美丽的容颜和率真的性格&#xff0c;让同事们如沐春风。可叹的是她音容仿佛犹在&#xff0c;人却离我们而…

预测脑中风

中风是危害人们健康的重大疾病之一&#xff0c;根据医学杂志《柳叶刀》发表的一篇文章中的数据&#xff0c;中风在我国居民死亡原因中高居第一位&#xff0c;而且我国居民的中风的比例也是世界上最高的之一。因此&#xff0c;了解居民的身体状况与出现中风的联系&#xff0c;进…

makepie暂停服务

贴吧大佬&#xff1a; 由于MakeAPie 将于 2 月 15 号开始暂停服务&#xff0c;有大佬爬去了网站上公开的数据&#xff0c;方便大家下载&#xff0c;也算是一种备份吧。 如果有需要会考虑做成excel。 再次感谢makeapie各位大佬无私分享。 链接: https://pan.baidu.com/s/1B9MR…

MakeApie 将于 2月15号开始暂停服务

Make A Pie 是由社区贡献者维护的用于 Apache ECharts 作品分享的第三方非官方社区。 一直以来MakeApie 给我们带来了太多的工作中的灵感&#xff0c;echarts复制粘贴党必备&#xff0c;导致没有好好学echarts。今日登录看到这个消息&#xff0c;感到难过和些许思考。 Make A …

微信官方:微信圈子将停止运营

本文转载自IT之家 IT之家 5 月 28 日消息 2019 年 12 月&#xff0c;微信官方宣布&#xff0c;微信搜索正式升级为“微信搜一搜”。与此同时&#xff0c;微信搜一搜出现了“圈子”。今天微信官方宣布&#xff0c;微信圈子将于 2021 年 12 月 28 日正式停运。 微信称&#xff0…

靠知识搞副业,知识内容创作者的春天来了

现在&#xff0c;周围越来越多年轻人热衷于买基金、炒股票、抢茅台、炒比特币……而对上班摸鱼则有一种普遍的认同&#xff0c;对自愿996的“奋斗X”更是同仇敌忾。这背后有一个社会现实——这一代年轻人普遍认为&#xff1a;打工累、打工卷、打工难赚钱&#xff0c;心里都盘算…

[实体关系抽取|顶刊论文]QIDN:Query-based Instance Discrimination Network for Relational Tri

Query-based Instance Discrimination Network for Relational Triple Extraction Zhejiang University, Tsinghua University&#xff5c;EMNLP 2022&#xff5c;2022.11.3&#xff5c;原文连接 想法简述 过去的方法都可以用上图来表述&#xff1a; H c o n t e x t H_{con…

ChatGPT 目前到底能帮助我们程序员做什么?

&#x1f680; 个人主页 极客小俊 ✍&#x1f3fb; 作者简介&#xff1a;web开发者、设计师、技术分享博主 &#x1f40b; 希望大家多多支持一下, 我们一起进步&#xff01;&#x1f604; &#x1f3c5; 如果文章对你有帮助的话&#xff0c;欢迎评论 &#x1f4ac;点赞&#x1…

程序员写博客如何赚钱「5大盈利方向」

很高兴又和大家见面了&#xff0c;今天我们来聊一聊程序员写博客如何赚钱「5大盈利方向」&#xff0c;还有程序员等等等各种相关干货内容&#xff0c;其实这篇文章主要还是为新手朋友整理的&#xff0c;总的来说思路还是很重要&#xff01; 互联网时代发展太快&#xff0c;很多…

input 在 IOS 中输入内容不可见问题

第一次做移动端页面&#xff0c;就发现很多兼容性问题了。 本人一般是在Chrome浏览器控制台调试移动端样式尺寸&#xff0c;但是大家都知道&#xff0c;真机和浏览器是有一些差距的。 然后这个问题卡了很久&#xff0c;各种百度&#xff0c;也没有找到想要的。如图 问题描述&…