IOU->GIOU->CIOU->Focal_loss
阅读原文时间:2023年07月09日阅读:2

IOU->GIOU->CIOU->Focal_loss

  1. 该链接下关于算是函数讨论

绿色代表Gtbox,黑色代表最终预测的边界框

但是去计算这三种L2损失时都是一样的(8.41),但是去计算IOU时很明显他们的IOU是不一样的---->说明L2损失不能很好的衡量两个目标边界框的重合程度

上图中绿色的是真实目标边界框,红色的边界框是最终预测的边界框
外面的蓝色目标边界框就是用一个小的矩型将这两个框住-->这个蓝色目标边界框的面积=A^C,
这里的u等于蓝色和红色两个目标边界框并集的部分
  • Glou缺点:当两个目标边界框是并集是GLOU退化层LOU(后面的一项退化成了0)

IOU: 缺点: 收敛特别的慢
GIOU:缺点: 回归的不够准确

上图中的第一行(GLOU)使用GLOU来训练网络-->让预测目标边界框尽可能地回归到真实地目标边界框
(这里的黑色代表anchor(default box),绿色是Groud truth, 蓝色是最终预测的边界框)--->目的是使蓝色边界框与绿色边界框重合在一起
(1--> 分别表示迭代40步,100步,400步)

第2行的DLOUloss,(20th--40th--120th)---->从而说明DLOU比GLOU收敛更快

观察上图的右侧--->说明IOU和GLOU不能很好的说明目标边界框重合的位置关系
  • DIOU计算公式:

    上图中的ρ^2 表示b和b^gt 的欧式距离
    观察上图:b是预测目标边界框的中心点b^gt 是真实目标的中心点坐标, ρ^2 是中心点的距离的平方,这里的c是这两个矩形的最小外接框的对角线长度

    所以,当两个目标边界框重合在一起的时候d^2=0,当这两个边界框相聚无穷远的时候d^2 趋近于c^2

  • 样例

  • paper: https://arxiv.org/pdf/1708.02002.pdf

    Focal loss针对one-stage模型,正负样本差距太大会导致
    2.类别不平衡
    为什么在two-stage中没有类别不均衡的问题?
    1.在two-stage中的第一阶段也存在不平衡问题,但是是通过第二阶段的检测来确定最终的目标的(例如faster-rcnn经过rpn后就大概2000个框了)

  • Focal Loss--->针对正负样本极不平衡的情况

由上图可得例如当a=0.75时,可以增加正样本的权重,减少负样本的(背景)权重

  • 引入a对于计算cross entropy的计算(这里的a是一个超参数,来平衡正负样本的权重)

由上面右边的图可得: 当该样本是好分的样本是那么(1-p_t)^r能够降低好分样本的权重

  • 降低简单样本的权重,因此能够聚焦于难分的负样本,因此作者引入了(1−P_t )^γ

  • 这里的a_t 是超参数

    第一列代表的是预测概率
    第二列代表的是真实地标签(1对应是正样本0对应的是负样本)
    第三列的CE是cross entropy loss
    第四列代表的是focal loss
    第五列的rate代表的是CE和FL的比值

    说明Focal loss--->降低易分样本的权重的功能

    使用Focal loss之后更专注于学习难学习的样本,对于简单样本就降低他的学习的权重

    Focal的缺点是易受噪音的干扰(所以这里可以在标注是要尽可能地正确)