yolov5模型训练———使用yolov5训练自己的数据集

本文主要讲述了在Windows10环境下使用yolov5训练模型的具体步骤,是对前一篇博客yolov5的学习和补充,讲述了使用从github上下载yolov5作者源码训练自己模型的具体过程,本文是一篇学习笔记。

本文和此篇博客互为参考:目标检测—基于Yolov5的目标检测项目(学习笔记)

本文主要包括以下内容:


软件准备:anaconda3,pycharm

一、程序下载与准备

(1)yolov5下载

yolov5的github地址:yolov5
1.可以点击此处选择自己想要下载的版本(本文以5.0为例)
yolov5模型训练———使用yolov5训练自己的数据集

2.点击左边的download即可下载压缩包
yolov5模型训练———使用yolov5训练自己的数据集

3.下载并解压后的文件夹如图所示:
(此处我是在D盘下新建了一个project的文件夹)
yolov5模型训练———使用yolov5训练自己的数据集
yolov5模型训练———使用yolov5训练自己的数据集

在pycharm中打开工程目录如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集

(2)训练集文件夹创建

1.在yolov5-6.1工程文件夹下,新建一个名称为VOCdevkit的文件夹
2.在VOCdevkit文件夹下,新建三个名称分别为imageslabelsVOC2007的文件夹
3.在images和labels文件夹下分别新建两个名为trainval的文件夹
4.在VOC2007文件夹下新建三个名称分别为AnnotationsJPEGImagesYOLOLabels的文件夹
如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集

Annotations:xml标签文件夹
JPEGImages:照片文件夹
YOLOLabels:txt标签文件夹(yolov训练需要txt格式的标签文件)

(3)预训练权重下载

加载预训练权重进行网络的训练可以减小缩短网络训练时间,并且提高精度。预训练权重越大,训练出来的精度就会越高,但是其检测的速度就会越慢。
预训练权重下载地址:
yolov5权重
本文在此处选择下载的是yolov5s.pt
(不同的预训练权重对应着不同的网络层数,我们需要根据预训练权重使用对应的yaml文件,即在之后的训练中需要使用名称为yolov5s.yaml的文件)
yolov5模型训练———使用yolov5训练自己的数据集
2.将下载好的权重文件保存在weights文件夹中
yolov5模型训练———使用yolov5训练自己的数据集

二、环境搭建

(1)pytorch安装

windows10系统中通过anaconda安装pytorch的具体步骤可以阅读此篇博客:
anaconda安装pytorch(anaconda3,Windows10)

(2)将pytorch应用到工程

在上一步中我们通过anaconda安装了pytorch,并将其导入了pycharm,下面我们来将名称为pyotch环境中的编译器应用到工程文件中去。
1.点击文件设置
yolov5模型训练———使用yolov5训练自己的数据集
2.选择Project Interpreter,选择刚刚导入pycharm的pytorch环境,点击应用,最后点击确认
yolov5模型训练———使用yolov5训练自己的数据集

这样我们就成功将名称为pytorch环境中的编译器应用到了yolov5-6.1工程中

(3)requirements中的依赖包安装

1.接下来对工程所需的依赖包进行安装,首先打开terminal
yolov5模型训练———使用yolov5训练自己的数据集

2.复制requirements.txt文件中的命令行:

pip install -r requirements.txt

粘贴在terminal中,并按回车键运行命令行,requirements中的依赖包就开始安装了
yolov5模型训练———使用yolov5训练自己的数据集

(4)环境搭建可能遇到的问题

1.遇到错误 ERROR: Could not build wheels for pycocotools which use PEP 517 and cannot be installed directly

参考此篇博客中的环境搭建可能遇到的问题部分:
目标检测—基于Yolov5的目标检测项目(学习笔记)
(如有其它错误会后续更新)

三、数据集制作

使用labelimg来制作我们自己的数据集,labelimg的安装和基本操作可以阅读此篇博客:
数据集制作——使用labelimg制作数据集
yolov5网络训练所需要的文件格式是txt格式的
如果通过labelimg给数据集打标签时输出为xml格式,可以通过代码将xml格式的标注文件转换为txt格式的标注文件;
如果输出为txt格式的标签文件则可以直接使用。同时训练自己的yolov5检测模型的时候,数据集需要划分为训练集和验证集,也可以通过相关代码实现。
本文以识别两个标签”person”和”har”为例,同时本文的数据集是以基于识别人带安全帽的数据集为例

本文以使用labelimg标注xml格式的标签文件为例:
(打标签过程省略)
1.首先将图片数据集存放在JPEGImages文件夹下;将xml标签文件存放在Annotations文件夹下;即:
JPEGImages里面存放着图片文件
Annotations里面存放着xml格式的标签文件
如图所示:
yolov5模型训练———使用yolov5训练自己的数据集

yolov5模型训练———使用yolov5训练自己的数据集
2.在工程中新建一个python的file,复制粘贴下面的代码并运行,即可将数据集划分为训练集和验证集
(注意将下面代码中的标签种类classes = [“hat”, “person”] 修改为自己的标签,下面代码中训练集占比TRAIN_RATIO = 80为80%)

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import random
from shutil import copyfile
 
classes = ["hat", "person"]
#classes=["ball"]
 
TRAIN_RATIO = 80
 
def clear_hidden_files(path):
    dir_list = os.listdir(path)
    for i in dir_list:
        abspath = os.path.join(os.path.abspath(path), i)
        if os.path.isfile(abspath):
            if i.startswith("._"):
                os.remove(abspath)
        else:
            clear_hidden_files(abspath)
 
def convert(size, box):
    dw = 1./size[0]
    dh = 1./size[1]
    x = (box[0] + box[1])/2.0
    y = (box[2] + box[3])/2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    return (x,y,w,h)
 
def convert_annotation(image_id):
    in_file = open('VOCdevkit/VOC2007/Annotations/%s.xml' %image_id)
    out_file = open('VOCdevkit/VOC2007/YOLOLabels/%s.txt' %image_id, 'w')
    tree=ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)
 
    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
        bb = convert((w,h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
    in_file.close()
    out_file.close()
 
wd = os.getcwd()
wd = os.getcwd()
data_base_dir = os.path.join(wd, "VOCdevkit/")
if not os.path.isdir(data_base_dir):
    os.mkdir(data_base_dir)
work_sapce_dir = os.path.join(data_base_dir, "VOC2007/")
if not os.path.isdir(work_sapce_dir):
    os.mkdir(work_sapce_dir)
annotation_dir = os.path.join(work_sapce_dir, "Annotations/")
if not os.path.isdir(annotation_dir):
        os.mkdir(annotation_dir)
clear_hidden_files(annotation_dir)
image_dir = os.path.join(work_sapce_dir, "JPEGImages/")
if not os.path.isdir(image_dir):
        os.mkdir(image_dir)
clear_hidden_files(image_dir)
yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/")
if not os.path.isdir(yolo_labels_dir):
        os.mkdir(yolo_labels_dir)
clear_hidden_files(yolo_labels_dir)
yolov5_images_dir = os.path.join(data_base_dir, "images/")
if not os.path.isdir(yolov5_images_dir):
        os.mkdir(yolov5_images_dir)
clear_hidden_files(yolov5_images_dir)
yolov5_labels_dir = os.path.join(data_base_dir, "labels/")
if not os.path.isdir(yolov5_labels_dir):
        os.mkdir(yolov5_labels_dir)
clear_hidden_files(yolov5_labels_dir)
yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")
if not os.path.isdir(yolov5_images_train_dir):
        os.mkdir(yolov5_images_train_dir)
clear_hidden_files(yolov5_images_train_dir)
yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")
if not os.path.isdir(yolov5_images_test_dir):
        os.mkdir(yolov5_images_test_dir)
clear_hidden_files(yolov5_images_test_dir)
yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")
if not os.path.isdir(yolov5_labels_train_dir):
        os.mkdir(yolov5_labels_train_dir)
clear_hidden_files(yolov5_labels_train_dir)
yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")
if not os.path.isdir(yolov5_labels_test_dir):
        os.mkdir(yolov5_labels_test_dir)
clear_hidden_files(yolov5_labels_test_dir)
 
train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')
train_file.close()
test_file.close()
train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')
list_imgs = os.listdir(image_dir) # list image files
prob = random.randint(1, 100)
print("Probability: %d" % prob)
for i in range(0,len(list_imgs)):
    path = os.path.join(image_dir,list_imgs[i])
    if os.path.isfile(path):
        image_path = image_dir + list_imgs[i]
        voc_path = list_imgs[i]
        (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))
        (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))
        annotation_name = nameWithoutExtention + '.xml'
        annotation_path = os.path.join(annotation_dir, annotation_name)
        label_name = nameWithoutExtention + '.txt'
        label_path = os.path.join(yolo_labels_dir, label_name)
    prob = random.randint(1, 100)
    print("Probability: %d" % prob)
    if(prob < TRAIN_RATIO): # train dataset
        if os.path.exists(annotation_path):
            train_file.write(image_path + '\n')
            convert_annotation(nameWithoutExtention) # convert label
            copyfile(image_path, yolov5_images_train_dir + voc_path)
            copyfile(label_path, yolov5_labels_train_dir + label_name)
    else: # test dataset
        if os.path.exists(annotation_path):
            test_file.write(image_path + '\n')
            convert_annotation(nameWithoutExtention) # convert label
            copyfile(image_path, yolov5_images_test_dir + voc_path)
            copyfile(label_path, yolov5_labels_test_dir + label_name)
train_file.close()
test_file.close()

运行此代码,过程如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集
然后就可以在images和labels文件夹中分别看到已经划分好的图片数据集和标签数据集

四、yolov5模型训练

(1)修改数据配置文件

1.找到data目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名,方便后续操作,本文此处修改为hat.yaml。
yolov5模型训练———使用yolov5训练自己的数据集

2.点击hat.yaml文件,修改以下部分:
注释掉语句:download: bash data/scripts/get_voc.sh
修改trainval地址为自己电脑中数据集地址
修改number of classes数值为自己数据集标签的种类个数(本文标签为两类)
修改class names为自己自己数据集标签的种类(本文为hat和person)
yolov5模型训练———使用yolov5训练自己的数据集

(2)修改模型配置文件

前面选择下载的权重文件为yolov5s.pt,我们需要使用与之相对应的模型配置yaml文件

1.找到models目录下的yolov5s.yaml文件,将该文件复制一份,将复制的文件重命名,方便后续操作,本文此处修改为yolov5_hat.yaml。
yolov5模型训练———使用yolov5训练自己的数据集
2.打开yolov5s_hat.yaml文件,将number of classes改为数据集标签的种类(本文识别种类为两类)
yolov5模型训练———使用yolov5训练自己的数据集

(3)train.py主函数修改

主要修改以下五个函数:
–weights:初始化的权重文件的路径地址
–cfg:模型yaml文件的路径地址
–data:数据yaml文件的路径地址
–epochs:训练次数
–batch-size:一轮训练的文件个数
yolov5模型训练———使用yolov5训练自己的数据集
1.打开train.py,作以下修改:
修改”–weights”中权重文件地址为文件yolov5s.pt的地址
修改”–cfg”中模型yaml文件的地址为文件yolov5s_hat.yaml的地址
修改”–data”中数据yaml文件的地址为文件hat.yaml的地址

    parser.add_argument('--weights', type=str, default='weights/yolov5s.pt', help='initial weights path')
    parser.add_argument('--cfg', type=str, default='models/yolov5s_hat.yaml', help='model.yaml path')
    parser.add_argument('--data', type=str, default='data/hat.yaml', help='data.yaml path')

如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集

” –epochs”和”–batch-size”的数值可以根据GPU情况自行设置

2.运行train.py,开始训练模型
在加载完train和val的数据集之后,可以看到模型开始训练~
yolov5模型训练———使用yolov5训练自己的数据集

(4)模型训练可能遇到的问题

1.遇到错误 AttributeError: Cant get attribute SPPF on module models

如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集
解决方法:
在models文件夹下找到common.py文件复制下面的代码粘贴至顶部即可

import warnings

class SPPF(nn.Module):
  # Spatial Pyramid Pooling - Fast (SPPF) layer for YOLOv5 by Glenn Jocher
  def __init__(self, c1, c2, k=5):  # equivalent to SPP(k=(5, 9, 13))
    super().__init__()
    c_ = c1 // 2  # hidden channels
    self.cv1 = Conv(c1, c_, 1, 1)
    self.cv2 = Conv(c_ * 4, c2, 1, 1)
    self.m = nn.MaxPool2d(kernel_size=k, stride=1, padding=k // 2)

  def forward(self, x):
    x = self.cv1(x)
    with warnings.catch_warnings():
      warnings.simplefilter('ignore')  # suppress torch 1.9.0 max_pool2d() warning
      y1 = self.m(x)
      y2 = self.m(y1)
      return self.cv2(torch.cat([x, y1, y2, self.m(y2)], 1))

如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集

2.遇到错误 BrokenPipeError: [Errno 32] Broken pipe

如下图所示:
yolov5模型训练———使用yolov5训练自己的数据集

遇到此错误是因为gpu虚拟内存不足而导致的
解决方法:
将train.py中第480行中的”–workers”的值赋为0即可

    parser.add_argument('--workers', type=int, default=0, help='maximum number of dataloader workers')

yolov5模型训练———使用yolov5训练自己的数据集

五、测试结果

训练结束之后,在runs/train/exp/weights目录下会产生两个权重文件,一个是训练效果最好的权重文件,一个是训练最后一轮的权重文件
(接下来以best.pt权重文件为例)
yolov5模型训练———使用yolov5训练自己的数据集

(1)图片测试步骤

1.将best.pt权重文件复制粘贴在主目录的weights文件夹下(方便后续操作)
yolov5模型训练———使用yolov5训练自己的数据集

2.将想进行测试的图片放在主目录的data文件夹下,如图所示:

yolov5模型训练———使用yolov5训练自己的数据集

3.打开defect.py,更改以下部分:
将”–weight”改为best.pt权重文件的地址(在weights文件夹中)
将”–source”改为要测试的图片地址(在data文件夹中)

parser.add_argument('--weights', nargs='+', type=str, default='weights/best.pt', help='model.pt path(s)')
parser.add_argument('--source', type=str, default='data/2.jpg', help='source')  # file/folder, 0 for webcam

如图所示:
yolov5模型训练———使用yolov5训练自己的数据集
4.运行defect.py,即可得到结果:
由运行栏可知,输出结果保存在了runs\detect\exp3目录下,找到输出结果打开如下图所示:
(不同电脑地址可能不同)
yolov5模型训练———使用yolov5训练自己的数据集
5.如果识别视频,在将”–source”改为要测试的视频地址即可(注意加.mp4后缀名)
如果识别摄像头,在将”–source”的值置0即可,即:

parser.add_argument('--source', type=str, default='0', help='source')  # file/folder, 0 for webcam

(2)测试可能遇到的问题

1.遇到错误 AttributeError: ‘Upsample’ object has no attribute ‘recompute_scale_factor’

yolov5模型训练———使用yolov5训练自己的数据集

解决方法:
阅读此篇博客的测试可能遇到的问题部分
目标检测—基于Yolov5的目标检测项目(学习笔记)

2.测试摄像头时遇到错误 TypeError: argument of type ‘int’ is not iterable

如下图所示
yolov5模型训练———使用yolov5训练自己的数据集
直接输入”0″是字符格式,摄像头需要的是整数0
解决方法:
1.打开datasets.py
yolov5模型训练———使用yolov5训练自己的数据集
2.在第279行,将两个url均转换为字符串格式,即url→str(url),注意是英文括号

if 'youtube.com/' in str(url) or 'youtu.be/' in str(url): 

yolov5模型训练———使用yolov5训练自己的数据集
再运行defect.py即可

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2023年3月10日
下一篇 2023年3月10日

相关推荐