人工智能-深度学习-yolov3口罩佩戴识别

一.基础环境

windows 10
cuda 10.0
python3.7.4
tensorflow-gpu 1.14.0
keras2.2.4
numpy==1.16.5

二.下载keras-yolo3代码

从github上下载:

https://github.com/qqwweee/keras-yolo3

代码解构如下:
在这里插入图片描述

三.下载权重并测试

本项目所用权重文件:
权重文件
官方提供的地址:
yolov3.weights
yolov3-tiny.weights

共有两个权重文件 yolov3.weights 和 yolov3-tiny.weights, 原始代码以 yolov3.weights 为基础,我们先进行一下测试, 我们需要将 darknet 下的 yolov3 配置文件转换成 keras 适用的 h5 文件, 根目录下执行命令:

python convert.py yolov3.cfg yolov3.weights model_data/yolo_weights.h5

输出如下命令则代表执行成功, model_data文件夹下会生成 yolo_weights.h5 文件:

在这里插入图片描述

进行图片测试, 项目根目录cmd下执行:

python yolo_video.py --image

输入图片位置:
在这里插入图片描述
输出:
在这里插入图片描述
则原模型运行成功

四.利用 yolov3-tiny 模型进行训练

口罩识别中, 我们采用 yolov3-tiny.weights 作为基础权重, 以增加些训练和测试时的速度
将 yolov3-tiny.weights 复制到项目的根目录下。

我们需要将 darknet 下的 yolov3 文件转换成 keras 适用的 h5 文件, 跟yolov3.weights转换一样,根目录下执行命令:

python convert.py yolov3-tiny.cfg yolov3-tiny.weights model_data/tiny_yolo_weights.h5

在进行测试前,我们需要修改下代码,将yolo.py对应的文件地址修改一下:
在这里插入图片描述
进行图片测试, 项目根目录cmd下执行:

python yolo_video.py --image

输入图片位置:
在这里插入图片描述
发现可以进行测试,只是效果远远不如 yolov3.weights,但是速度上是有优势的, 我们就基于yolov3-tiny 进行再训练。

五.准备训练数据

1.数据标注

我们可以从网上找一些数据口罩的数据进行标注,可以使用便标注软件labelImg
github地址:labelImg源码 下载后进行编译即可
编译后的下载地址: labelImg软件

利用软件进行标注:
在这里插入图片描述
注:我们采用voc的数据样式就行, 其他一些框架也可以用

2.创立文件夹

在根目录创建 VOCdevkit 文件夹, 再在该文件夹下创建 VOC2007 文件夹, 再在 VOC2007 文件夹下创建 Annotations、ImageSets、JPEGImages文件夹, 再在 ImageSets 文件夹下创建 Main 文件夹,目录格式如下:
在这里插入图片描述
其中 Annotations 中放标注文件,JPEGImages 为原始图片
在这里插入图片描述
在这里插入图片描述

3.分割数据集

在 VOC2007 文件夹下建立文件 voc_yolo.py 运行代码划分训练集:

"""
拆分数据集为 训练集、测试集、验证集
"""
import os
import random

# 一. 设置数据集比例

# 训练集的比率
train_percent = 0.8
# 测试集占测试验证集的百分比
test_other_percent = 0.5


# 二. 获取训练集,验证集和测试集的索引列表

# 标注数据地址
voc_annotations_path = 'Annotations'
# 划分数据集的文件位置
division_data_path = 'ImageSets/Main'

# 获取所有的 标注数据 名称列表
voc_annotations_list = os.listdir(voc_annotations_path)
# 所有标注数据的个数
voc_annotations_cnt = len(voc_annotations_list)

# 生成 文件个数大小 的范围, 可以看成索引列表
list_range = range(voc_annotations_cnt)

# 获取训练集的个数
train_cnt = int(voc_annotations_cnt * train_percent)
# 从文件中随机获取 train_cnt 个训练验证集的索引
train_index = random.sample(list_range, train_cnt)

# 从文件中随机获取训练验证集的索引(全部索引与训练集做差集)
train_val_index = list(set(list(list_range)).difference(set(train_index)))

# 计算需要获取的测试训练集的个数
test_val_cnt = voc_annotations_cnt - train_cnt
# 计算测试集个数
test_cnt = int(test_val_cnt * test_other_percent)
# 计算验证集个数
val_cnt = test_val_cnt - test_cnt

# 测试集索引列表
test_index = random.sample(train_val_index, test_cnt)
# 验证集索引列表
val_index = list(set(train_val_index).difference(set(test_index)))


# 三. 将各个数据集名称写入到文件中

# 训练集
train_object = open('%s/train.txt' % division_data_path, 'w')
# 测试集
test_object = open('%s/test.txt' % division_data_path, 'w')
# 验证集
val_object = open('%s/val.txt' % division_data_path, 'w')

train_names = [voc_annotations_list[i][:-4] + '\n' for i in train_index]
train_object.writelines(train_names)
train_object.close()

test_names = [voc_annotations_list[i][:-4] + '\n' for i in test_index]
test_object.writelines(test_names)
test_object.close()

val_names = [voc_annotations_list[i][:-4] + '\n' for i in val_index]
val_object.writelines(val_names)
val_object.close()

ImageSets/Main下为分好的训练接、测试集、验证集的文件名。

4. 将voc格式转为yolo格式

4.1 修改 voc_annotation.py 文件class对应的类别,并执行该文件

在这里插入图片描述

4.2 生成三个 txt 文件, 分别记录了图片的地址和标注的点位与类别

在这里插入图片描述

六.修改配置文件

1. 修改 model_data 文件夹下的 coco_classes.txt 和 voc_classes.txt

修改自己要训练的类别
在这里插入图片描述

2. 修改 yolov3-tiny.cfg 配置文件

搜索 [yolo],修改对应位置的 classes 和 filters
在这里插入图片描述

classes 改为要训练的类别个数

filters = (classes + 5) * 3

yolov3-tiny.cfg 有两处 [yolo], 均按照此步骤修改

3. 修改并执行 kmeans.py 文件

修改对应位置的文件名称并执行, 按数据重新生成候选框
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

七.训练并测试

1.根目录下建立 logs/000 文件夹

2.修改 train.py 文件

修改对应文件位置:
在这里插入图片描述
**然后可以根据机器性能修改批尺寸 batch_size **

3.执行 train.py 进行训练

在这里插入图片描述
接下来就是耐心等待, 根据数据量大小和机器算力, 需要训练几个小时甚至几天的时间。

4.训练完成

训练完后, 在logs/000文件夹下会生成一些文件, 包括模型文件, 日志文件
在这里插入图片描述
我们先查看下日志, 利用 tensorboard 查看, 在根目录执行:

tensorboard --logdir=logs/000

打开网址:

http://localhost:6006/

可查看相应日志

5.测试

5.1 测试图片

根目录执行:

python yolo_video.py --image

然后输入需要检测的图片地址即可:
在这里插入图片描述

5.2 测试摄像头

将 yolo.py 文件中的 video_path 改为 0 即可
在这里插入图片描述运行:

python yolo_video.py

八.常见异常

1.执行 yolo_video.py 或者 train.py 时报错

如果报错:

tensorflow.python.framework.errors_impl.UnknownError: 2 root error(s) found.
  (0) Unknown: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above.
	 [[{{node conv2d_1/convolution}}]]
	 [[boolean_mask_120/GatherV2/_3383]]
  (1) Unknown: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above.
	 [[{{node conv2d_1/convolution}}]]

则加上如下代码:

import tensorflow as tf
config = tf.compat.v1.ConfigProto(allow_soft_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.7
tf.compat.v1.keras.backend.set_session(tf.compat.v1.Session(config=config))

并可以通过此代码调节GPU的使用率

2.报异常 ‘str’ object has no attribute ‘decode’

load_weights_from_hdf5_group
    original_keras_version = f.attrs['keras_version'].decode('utf8')
AttributeError: 'str' object has no attribute 'decode'

重新安装 h5py 模块

pip install h5py==2.10 -i https://pypi.tuna.tsinghua.edu.cn/simple/

需要代码和数据集的童鞋评论区留下邮箱哈!!!

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2023年2月26日 下午12:18
下一篇 2023年2月26日

相关推荐