2022-06-27-组会
2022-06-27-组会
Oriented R-CNN
2021 CVPR
KLD
2021 NeurIPS
Gaussian Wasserstein Distance换成了Kullback-Leibler Divergence
GWD的侧重点在于分析将框的表示从转换成二维高斯分布的好处,也就是解决了边界问题、类正方形检测问题、损失和评估不一致问题
作者在KLD中从理论上分析:为什么Kullback-Leibler Divergence会比Wasserstein Distance要好
用旋转还是水平anchor有了一些新的理解:
当目标非常小或者某一条边比较短的时候,很小的位置偏移都会造成IoU的急剧下降
偏移的现象和中心点参数梯度的权重有关,
旋转anchor能提供高质量的先验,它的长宽和gt接近,所以基于旋转anchor的方法中心点偏移不严重;
而水平anchor的长宽没法反应实际gt的尺寸大小,因此中心点偏移严重,需要额外的精修阶段
SCRDet
2019 ICCV
放在现在,没有特别多能够借鉴的地方,因为现在许多基于RPN的检测器都超过了该检测器
IoU-Smooth L1 Loss
本博客所有文章均采用 CC BY-NC-SA 4.0 协议 ,禁止商用,转载请注明出处!