【IoU loss】IoU损失函数理解

1 引言

目标检测任务的损失函数由Classificition Loss和Bounding Box Regeression Loss两部分构成。

Bounding Box Regression Loss Function的演进路线是:
Smooth L1 Loss –> IoU Loss –> GIoU Loss –> DIoU Loss –> CIoU Loss

之前写到了Smooth L1 Loss,本文介绍IoU Loss。

2 问题分析

Iou loss提出前,大家主要通过4个坐标点独立回归Bounding box(bbox,边界框),这样做的缺点有:

  • 目标检测的评价方式是使用IoU,而实际回归坐标框的时候使用4个坐标点,二者是不等价的,如下图所示;
  • L1或者L2 Loss相同的框,其IoU 不是唯一的
  • 通过4个坐标点回归坐标框的方式,是假设4个点相互独立的,没有考虑其相关性,实际4个坐标点具有一定的相关性
  • 基于L1和L2的距离的loss对于尺度 不具有 不变性



图(a)中的三组框具有相同的L2 Loss,但其IoU差异很大;
图(b)中的三组框具有相同的L1 Loss,但IoU 同样差异很大。
说明L1,L2这些Loss用于回归任务时,不能等价于最后用于评测检测的IoU。

3 IoU Loss

针对上面的问题,旷世在2016年提出IoU Loss,将4个点构成的box看成一个整体进行回归。

上图展示了L2 Loss和IoU Loss 的求法,图中的红色点表示目标检测网络结构中Head部分上的点(i, j),绿色的框表示Ground truth框, 蓝色的框表示Prediction的框。

IoU loss的定义如上,先求出2个框的IoU,然后再求个-ln(IoU)。

其中IoU是真实框和预测框的交集和并集之比,当它们完全重合时,IoU就是1。

对于Loss来说,越小越好,loss越小说明他们重合度高。
所以,IoU Loss可以简单定义为1-IoU

4 代码演示IoU

import cv2
import numpy as np


def CountIOU(RecA, RecB):
    xA = max(RecA[0], RecB[0])
    yA = max(RecA[1], RecB[1])
    xB = min(RecA[2], RecB[2])
    yB = min(RecA[3], RecB[3])
    # 计算交集部分面积
    interArea = max(0, xB - xA + 1) * max(0, yB - yA + 1)
    # 计算预测值和真实值的面积
    RecA_Area = (RecA[2] - RecA[0] + 1) * (RecA[3] - RecA[1] + 1)
    RecB_Area = (RecB[2] - RecB[0] + 1) * (RecB[3] - RecB[1] + 1)
    # 计算IOU
    iou = interArea / float(RecA_Area + RecB_Area - interArea)
    
    return iou

img = np.zeros((512,512,3), np.uint8)   
img.fill(255)

RecA = [30,30,300,300]
RecB = [60,60,350,340]

cv2.rectangle(img, (RecA[0],RecA[1]), (RecA[2],RecA[3]), (0, 255, 0), 5)
cv2.rectangle(img, (RecB[0],RecB[1]), (RecB[2],RecB[3]), (255, 0, 0), 5)

IOU = CountIOU(RecA,RecB)
font = cv2.FONT_HERSHEY_SIMPLEX

cv2.putText(img,"IOU = %.2f"%IOU,(130, 190),font,0.8,(0,0,0),2)

cv2.imshow("image",img)
cv2.waitKey()
cv2.destroyAllWindows()

5 感谢链接

https://zhuanlan.zhihu.com/p/104236411

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2022年5月23日
下一篇 2022年5月23日

相关推荐