文章链接:http://openaccess.thecvf.com/content_CVPR_2019/html/Zhao_RegularFace_Deep_Face_Recognition_via_Exclusive_Regularization_CVPR_2019_paper.html
源码链接:http://kaizhao.net/regularface

TL;DR

对于人脸识别,目前的工作大多数集中在如何通过修改loss functions来增强intra-class compactness,但是inter-class separability对划分样本空间的边界同样有作用。这篇文章中首先提出一种指标来度量特征空间内类中心的距离,然后再提出一种Regularization的方法来增大类间距离。

Dataset/Algorithm/Model

首先给出不同loss下的样本特征空间划分:

从上面的特征空间点中我是并不能看出来文中提出的RegularFace对ID可分有明显的效果。

可视化不同loss的效果之后,文中提出了一种度量类中心距离的方式,如下述公式:

Sepi=maxjicos(φi,j)=maxjiWiWjWiWj\begin{aligned} S e p_{i} &=\max _{j \neq i} \cos \left(\varphi_{i, j}\right) \\\\ &=\max _{j \neq i} \frac{W_{i} \cdot W_{j}}{\left\|W_{i}\right\| \cdot\left\|W_{j}\right\|} \end{aligned}

其中WiW_i表示最后一层softmax对应的分类概率矩阵,SepSep的是越小越好。根据上面提出的公式,计算了不同loss下的类间距离,如下表所示:

然后作者表中结果得出结论,以上loss的类间距离都太大了(表示并不知道什么样的值才是合理并且足够小的,而且文中也没有给出自己方法的SepSep值)。然后在这种背景下提出了文中的RegularFace,也是修改了loss,主要创新点在于在loss中增加了一项regularization,如下所示:

L(θ,W)=Ls(θ,W)+λLr(W)\mathcal{L}(\theta, W)=\mathcal{L}_{s}(\theta, W)+\lambda \mathcal{L}_{r}(W)

第一项 angular softmax loss:

Ls(θ,W)=1Ni=1Nlogexi2cos(ϕi,yi)jexi2cos(ϕi,j)\mathcal{L}_{s}(\theta, W)=\frac{1}{N} \sum_{i=1}^{N}-\log \frac{e^{\left\|x_{i}\right\|_{2} \cos \left(\phi_{i, y_{i}}\right)}}{\sum_{j} e^{\left\|x_{i}\right\|_{2} \cos \left(\phi_{i, j}\right)}}

第二项 exclusive regularization:

Lr(W)=1CimaxjiWiWjWiWj\mathcal{L}_{r}(W)=\frac{1}{C} \sum_{i} \max _{j \neq i} \frac{W_{i} \cdot W_{j}}{\left\|W_{i}\right\| \cdot\left\|W_{j}\right\|}

最后给出文章模型的pipeline:

Experiment Detail

首先,文章中首先在MNIST上验证文中提出loss的有效性,特征空间点如下所示:

然后在不同数据集下性能比较结果如下所示:

Thoughts

文章提出的想法novelty虽小但非常实用且实验中涨点也多,但是文章提出度量类间中心距离的指标有待验证其有效性。

联系作者