2022-06-27-组会

2022-06-27-组会

Oriented R-CNN

2021 CVPR

Oriented R-CNN解读

KLD

2021 NeurIPS

Gaussian Wasserstein Distance换成了Kullback-Leibler Divergence

GWD的侧重点在于分析将框的表示从(x,y,w,h,θ)(x,y,w,h,\theta)转换成二维高斯分布的好处,也就是解决了边界问题、类正方形检测问题、损失和评估不一致问题

作者在KLD中从理论上分析:为什么Kullback-Leibler Divergence会比Wasserstein Distance要好

用旋转还是水平anchor有了一些新的理解:

当目标非常小或者某一条边比较短的时候,很小的位置偏移都会造成IoU的急剧下降

偏移的现象和中心点参数梯度的权重有关,

旋转anchor能提供高质量的先验,它的长宽和gt接近,所以基于旋转anchor的方法中心点偏移不严重;

而水平anchor的长宽没法反应实际gt的尺寸大小,因此中心点偏移严重,需要额外的精修阶段

SCRDet

2019 ICCV

放在现在,没有特别多能够借鉴的地方,因为现在许多基于RPN的检测器都超过了该检测器

IoU-Smooth L1 Loss