TensorFlow – Help Protect the Great Barrier Reef海星检测比赛总结

1.Yolov5检测海星竞赛

比赛链接

有很多前排的很值得借鉴,参考,学习。在这里就不一一列出了。感兴趣的可以自己去看看。

1.数据集部分

该数据集由三段视频帧组成,总共给的有图像的数据有4919张,还有上万张空图像,虽然说有五千张左右有目标的图像,但是由于是视频分出来的,有很多都是相似的图像,导致最终给的其实也就几百张的图像。

拆分的话,我们分了两种方式,一种是简单的按照视频ID去分,还有一种是基于子序列进行五折。实验效果的话我们实验的效果差不多,差距不是很大,不过最终选用的还是视频ID去划分。

2.评价指标

F2 score。 5PR/(4P+R)漏检比较致命。

3.模型部分

然后就是模型部分,模型我采用YOLOv5和YOLOX融合的方式,然后使用tracking的方式。

数据增强方面

数据增强方面,yolov5的默认配置的话,mosaic和mixup概率给了0.5,加了较多的数据增强,那么问题就来了,加了过多的数据增强之后,对于大数据集,增强后的数据分布和原样本或者测试样本分布还不会差很多,但是对于这个比赛的话,本身数据集就不多,用了太多增强后,分布差异就会比较大,所以我这边选择降低了概率,有但是触发概率变小。

mosaic的话,本身是将四张图进行随机裁剪等然后拼接到一起,那么就有几率将小目标裁剪在图上,变相的增大了小目标在图中的站比,所以对小目标检测有用。mixup按照一定比例对两张图片进行混合。

模型方面

1.对anchor重新进行了聚类,yolov5本身在训练前会重新计算anchor,但是冗余感觉有点大,我就重新聚类了anchor,不过最终效果出来的话,没什么大影响。

2.v5s,m,l都试过,差距不是很大,所以主模型采用l6,用x的话太慢了,平衡一下速度和性能,就用l6作为主要的。然后进行了多尺度训练。多尺度训练还是很好用。通过对不同尺度的图片进行训练,提高检测模型的鲁棒性。

3.WBF。对多个模型的BBOX框按置信度排序,然后取最高置信度的框和其他的框相对比,若大于设定的IoU阈值,则放入同一个列表进行融合,直到和全部框计算完毕,融合就直接加权平均。然后反复上述过程,直到候选框选取完毕。

4.Tracking。Norfair 的工作原理是根据过去的位置估计每个点的未来位置。然后它尝试将这些估计位置与检测器提供的新检测点进行匹配。这里直接用了最简单的欧几里德距离。

4.赛后评价

1.比训练更高的分辨率,产生的盒子在 COTS 周围更紧密(精确)。在训练中,标签非常不精确,并且跨帧也不一致,甚至看起来是半自动的。并且盒子的大小在这个评估指标设置中起着巨大的作用,因为 0.8 IOU 阈值具有特别大的影响。

2.这次比赛数据集漏标有点严重。然后标签不一致,抖榜人挺多的。

完赛之后,在学习mmdetection框架。然后试了一下cascade rcnn。用了一些常规的数据增强,然后换了backbone为res2net。我觉得YOLOX的最后几个epoch关闭数据增强挺好用的,也加进去试了下。效果还是能提点的。最终直接能进前五十。不过结果 公榜成绩确实比私榜低。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
上一篇 2022年6月8日 上午10:51
下一篇 2022年6月8日 上午10:53

相关推荐

本站注重文章个人版权,不会主动收集付费或者带有商业版权的文章,如果出现侵权情况只可能是作者后期更改了版权声明,如果出现这种情况请主动联系我们,我们看到会在第一时间删除!本站专注于人工智能高质量优质文章收集,方便各位学者快速找到学习资源,本站收集的文章都会附上文章出处,如果不愿意分享到本平台,我们会第一时间删除!