keras版本的yolov3来训练人脸口罩数据集
配置虚拟环境
常用创建命令
conda create -n yolov3_mask python=3.7
进入环境
source activate yolov3_mask
conda activate yolov3_mask
退出环境
source deactivate
conda deactivate
列出环境
conda env list
conda info --env
conda info -e
删除环境
conda remove -n yolov3_mask --all
导出当前工程依赖的python包清单
pip3 freeze > requirements.txt
pip3 install -r requirements.txt
首先我们用keras版本的yolov3来训练人脸口罩数据集,从而完成一个简单的目标检测。
基本环境要求
- Python: 3.7.4
- Tensorflow-GPU 1.14.0
- Keras: 2.2.4
conda create -n yolov3_mask python=3.7
source activate yolov3_mask
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow-gpu==1.14.0
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple tensorflow==1.14.0
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple keras==2.2.4
https://github.com/qqwweee/keras-yolo3
我们需要下载yolov3事先已经训练好的权重,yolov3.weights 。然而由于我们用的keras框架,所以我们需要把它给转换一下,执行如下命令将darknet下的yolov3配置文件转换成keras适用的h5文件
python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5
python convert.py yolov3-tiny.cfg yolov3-tiny.weights model_data/yolov3-tiny.h5
有了权重之后,我们直接运行一下,看一下效果,
python yolo_video.py --image
在命令行输入图片地址img/street.jpg,即可预测
如果遇到问题
original_keras_version = f.attrs[‘keras_version‘].decode(‘utf8‘)
卸载原来的h5py模块,安装2.10版本
pip install h5py==2.10 -i https://pypi.tuna.tsinghua.edu.cn/simple/
这样我就完成了官方提供和的模型进行的目标检测任务
版权声明:本文为博主__Miracle__原创文章,版权归属原作者,如果侵权,请联系我们删除!
原文链接:https://blog.csdn.net/qq_39276337/article/details/122571257