【2019/CVPR】RegularFace:Deep Face Recognition via Exclusive Regularization
文章链接:http://openaccess.thecvf.com/content_CVPR_2019/html/Zhao_RegularFace_Deep_Face_Recognition_via_Exclusive_Regularization_CVPR_2019_paper.html
源码链接:http://kaizhao.net/regularface
TL;DR
对于人脸识别,目前的工作大多数集中在如何通过修改loss functions来增强intra-class compactness,但是inter-class separability对划分样本空间的边界同样有作用。这篇文章中首先提出一种指标来度量特征空间内类中心的距离,然后再提出一种Regularization的方法来增大类间距离。
Dataset/Algorithm/Model
首先给出不同loss下的样本特征空间划分:
从上面的特征空间点中我是并不能看出来文中提出的RegularFace对ID可分有明显的效果。
可视化不同loss的效果之后,文中提出了一种度量类中心距离的方式,如下述公式:
其中表示最后一层softmax对应的分类概率矩阵,的是越小越好。根据上面提出的公式,计算了不同loss下的类间距离,如下表所示:
然后作者表中结果得出结论,以上loss的类间距离都太大了(表示并不知道什么样的值才是合理并且足够小的,而且文中也没有给出自己方法的值)。然后在这种背景下提出了文中的RegularFace,也是修改了loss,主要创新点在于在loss中增加了一项regularization,如下所示:
第一项 angular softmax loss:
第二项 exclusive regularization:
最后给出文章模型的pipeline:
Experiment Detail
首先,文章中首先在MNIST上验证文中提出loss的有效性,特征空间点如下所示:
然后在不同数据集下性能比较结果如下所示:
Thoughts
文章提出的想法novelty虽小但非常实用且实验中涨点也多,但是文章提出度量类间中心距离的指标有待验证其有效性。