对损失函数CIoU的改进算法ICIoU

基于边界框回归损失的目标检测器以其简单、高效的特点被广泛应用于计算机视觉领域。损失函数中定位算法的精度会影响网络模型检测结果的平均精度。我们在Complete Intersection over Union(CIoU)损失函数的基础上提出了一种改进的提高定位精度的算法。具体来说,该算法在于更全面的考虑预测框和真值框的匹配,利用预测框与真值框高宽比尺寸的比例关系,在真值框和预测框对应的宽高比值相同条件下,考虑预测框对定位精度的影响因素,这样强化了惩罚函数的作用,提高了网络模型的定位精度。我们称这个损失函数是Improved CIoU (ICIoU)。在Udacity, PASCOL VOC(Pascal Visual Object Classes)和MS COCO(Microsoft Common Objects in Context)数据集上的实验,证明了ICIoU用于单级目标检测器YOLOv4在提高模型定位精度方面的有效性。所提出的ICIoU算法相比IoU可以在Udacity测试开发上显著提高AP 1.92%和AP75 3.25%。它还可以在PASCAL VOC上显著提高AP 1.72%和AP75 3.44%, 在COCO测试开发上显著提高AP 1.26%和AP75 3.47%。我们的算法相比CIoU在Udacity测试开发上显著提高AP 0.57%和AP75 0.12%。它还可以在PASCAL VOC上显著提高AP 0.26%和AP75 1.28%, 在COCO测试开发上显著提高AP 0.06%和AP75 0.65%

一、 Introduction

目标检测是计算机视觉任务中的关键问题之一,近年来,卷积神经网络越来越多的应用于计算机视觉领域[1-11]。用卷积神经网络解决目标检测问题时,无论是回归问题还是分类问题,都少不了使用损失函数(Loss Function)。损失函数(Loss Function)是用来估量模型的预测值 f(x) 与真实值 y 的不一致程度。我们训练模型的主要任务就是使用优化方法来寻找损失函数最小化对应的模型参数,损失函数决定了模型的最优值是什么,所以不同目标检测器的性能受到损失函数的影响。损失函数一般由两部分组成,classification loss和bounding box regression loss。包围盒回归损失计算是目标定位、多目标检测、目标跟踪和实例级分割等任务的关键步骤。
在多目标检测方面,相比传统的区域提议方法(the traditional region proposal methods),深度卷积神经网络在预测候选目标的包围盒方面具有更好的性能优势,这些网络包括一级目标检测器如YOLO系列([3-5,6];雷德蒙和法尔哈迪2017;2018)和SSD([9]刘等2016),两级目标检测器,如R-CNN系列([11-14]Girshick等2014;Girshick 2015Ren等人,2015年;何等2017),甚至多级目标检测器,如Cascade R-CNN[15]。在这些网络中,Intersection over Union (IoU)损失相比Focal loss and Ln-norm(n=2)损失成为包围盒回归最流行的评估度量算法[[16]Unitbox (Y u et al. 2016); [17]GIoU (Rezatofighi et al. 2019)]。
但是IoU算法不能检测真实边框与预测边框不重叠情况下的边界框回归问题。为了弥补IoU算法的缺陷,利用增加惩罚项的方法先后有GIoU ([17]Rezatofighi et al. 2019)、[18]DIoU and CIoU(Zheng et al. 2019)被提出。

其中GIoU算法解决了真实边框与预测边框不重叠情况下的边界框回归问题,DIoU算法通过直接最小化真实边框与预测边框的中心距提高了收敛速度,而CIoU算法通过同时考虑包括真实边框与预测边框中心距在内的三个几何度量获得了最好(state-of-the art)的性能。然而CIoU算法在真实边框与预测边框的高宽比一致性(consistency of aspect ratio)计算时, 存在当真实边框的高宽比与预测边框的高宽比相等时会退化为DIoU的情况。基于此问题(因此),本文提出改进的CIoU算法可以避免退化问题。

二、The Proposed Method ICIoU

为了改变CIoU算法在wgt/hgt =wp/hp 时产生的惩罚函数退化问题,我们在CIoU算法的基础上,提出了以真实边框Bgt和预测边框Bp各自对应边比值的方差(variance)作为惩罚函数计算的依据。这样做改善了在考虑高宽比几何因素时损失函数计算的全面性,有效的避免了惩罚函数的退化问题,增强了计算不同边框尺寸的损失函数的鲁棒性。我们设计的损失函数为L_ICIoU,其表达式如公式(6)所示,其中惩罚项αvv中两个参数α和vv的定义分别如公式(7)和公式(8)所示:
L_ICIoU=1-IoU+(ρ^2 (bp,bgt ))/c^2 +αv^v (6)
α=vv/((1-IoU)+vv ) (7)
vv=8/π2 [〖(arctan wgt/wp -π/4)〗^2+〖(arctan hgt/hp -π/4)〗^2] (8)
特别地,公式(8)是我们改进后的表达式,用来计算参数vv。在公式(8)中,当真实边框Bgt与预测边框Bp的尺寸完全相等时,即wgt=wp,hgt=hp,则vv=0,此时L_ICIoU的数值仅仅与IoU和两个边框的中心距离有关,与L_DIoU相同,也就是说L_DIoU是L_ICIoU的一种特殊情况。当真实边框Bgt与预测边框Bp的尺寸不相等时,则vv≠0,此时L_ICIoU>L_DIoU。并且真实边框Bgt与预测边框Bp对应边的尺寸相差越大,则惩罚项αvv也越大,产生的损失L_ICIoU也就越大,越是有利于边界框回归计算。所以,v^v能更全面的体现出考虑边框尺寸变化对损失L_ICIoU的积极作用。因此,ICIoU不仅体现了CIoU的优点,而且改进了CIoU在真实边框高宽比和预测边框高宽比相等时的退化问题。

Algorithm 1: IoU CIoU ICIoU
Input: Bounding box of Ground truth B^gt=(w^gt,h^gt,x^gt,y^gt)
Input: Bounding box of Prediction B^p=(w^p,h^p,x^p,y^p)
Output: ℒICIoU.
1: If (B^gt≠0)∪( B^p≠0 ) do
2:  If w^gt/h^gt =w^p/h^p    then
3:   v^v=8/π^2 [〖(arctan w^gt/w^p -π/4)〗^2+〖(arctan h^gt/h^p -π/4)〗^2]
4:   α=v^v/((1-IoU)+v^v )
5:   L_ICIoU=1-IoU+(ρ^2 (b^p,b^gt ))/c^2 +αv^v
6:  else
7:   〖L_ICIoU=L〗_CIoU=1-IoU+(ρ^2 (b^p,b^gt ))/c^2 +αv
8: else
9: L_ICIoU=0

Algorithm 2: IoU ICIoU
Input: Bounding box of Ground truth B^gt=(w^gt,h^gt,x^gt,y^gt)
Input: Bounding box of Prediction B^p=(w^p,h^p,x^p,y^p)
Output: ℒICIoU.
1: If (B^gt≠0)∪( B^p≠0 ) do
2:  v^v=8/π^2 [〖(arctan w^gt/w^p -π/4)〗^2+〖(arctan h^gt/h^p -π/4)〗^2]
3:   α=v^v/((1-IoU)+v^v )
4:   L_ICIoU=1-IoU+(ρ^2 (b^p,b^gt ))/c^2 +αv^v
5: else
6: L_ICIoU=0

---
# 总结
卷积神经网络在解决计算机视觉中目标检测的问题时有着非常重要的作用。在解决回归问题或者分类问题时,网络模型中主要依靠损失函数来判断模型的准确程度。若损失函数计算结果很小,表明网络模型与数据真实分布很接近,则模型性能良好;若损失函数计算结果很大,表明网络模型与数据真实分布差别较大,则模型性能不佳。包围盒回归损失函数相比分类损失函数在计算多目标检测、目标跟踪等方面具有较大的性能优势。尤其是IoU损失函数成为评估度量标准被大量用在当前流行的一级检测、二级检测,甚至多级检测等网络里。基于精度性能的要求,在IoU损失函数的基础上,先后提出了GIoU,DIoU和CIoU,他们都为精度性能的提高做出了贡献。本文在CIoU的基础上,改进了CIoU的惩罚函数。新的惩罚函数更全面的考虑了预测框和真值框高宽比的比例关系,通过将真值框和预测框对应的宽高比值相同的预测边框包括在内。这样做提高了预测框定位判断的全面性,强化了惩罚函数的作用,提高了模型的定位精度。由新的惩罚函数构成的这个损失函数我们称为ICIoU。

原文地址:
https://xueshu.baidu.com/usercenter/paper/show?paperid=10080ch0ka310xw0cs580p004f479875

ICIoU: Improved Loss Based on Complete Intersection Over Union for Bounding Box Regression



文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
上一篇 2022年5月22日 下午2:50
下一篇 2022年5月22日 下午2:54

相关推荐

本站注重文章个人版权,不会主动收集付费或者带有商业版权的文章,如果出现侵权情况只可能是作者后期更改了版权声明,如果出现这种情况请主动联系我们,我们看到会在第一时间删除!本站专注于人工智能高质量优质文章收集,方便各位学者快速找到学习资源,本站收集的文章都会附上文章出处,如果不愿意分享到本平台,我们会第一时间删除!