笔记-Sparse Representationor Collaborative Representation: Which Helps Face Recognition

本文主要是介绍笔记-Sparse Representationor Collaborative Representation: Which Helps Face Recognition,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

(之前写的笔记了,也是难得写这么多)

论文中心:

It is the CR, but not the l1-norm sparsity, that plays the essential role for classification in SRC。

首先:l1-norm与 l2-norm有差不多的作用

其次:发挥核心作用的是CR 

论文的核心思路:

大致的思路:在样本充足的情况下解释稀疏表征的可能性,并且验证稀疏表征在解决 FR 问题上的优势——很好的降低了其他算法在 FR 上解决相似分类时的不稳定性。然 后打破假设,用 CR 弥补了实际的问题中字典不完备的问题,并用实验验证,是CR 在 算法中发挥了关键作用。

两个重要的验证实验:

1)

① 目的:解释 SRC 对比之前的算法的优势,重点是解释在区分相似的分类时的准确 程度
② 假设前提:样本的容量足够

③ 条件:图片的特征向量维度低

④ 对象:两个接近的分类

⑤ 变量:横向稀疏程度 纵向不同的字典
⑥ 结论:
              i、 当表征的训练样本的数目过少时,结果的误差都很大。

             ii、 当表征的训练样本的数目太多的时候,对于相似的结果,辨别 将变得不稳定。

             iii、 当表征的训练样本的数目适当时,用来自正确的类别的图片表 征时结果要明显优于来  自错误的类别。


2)

① 目的:证实CR 的核心作用

② 条件:样本不足,字典每一个分类的列向量实际上是不完备的 不同分类的图片具有相似性,因此可以使用协同表示来弥补不完备的特征
③ 对象:完整的 FR 数据集

④ 变量:纵向不同的范数 横向不同的稀疏程度
⑤ 结论:

              i、 l1-norm 与 l2-norm有着差不多的作用

              ii、 发挥核心作用的是CR

SRC Algorithm & CRC_RLS Algorithm

文章的细节阅读:

①为什么可以使用稀疏表征

One particularly simple and effective approach models the samples from a single class as lying on a linear subspace. Subspace models are flexible enough to capture much of the variation in real data sets and are especially well motivated in the context of face recognition, where it has been observed that the images of faces under varying lighting and expression lie on a special low-dimensional subspace, often called a face subspace.

 each class of face images often lies in a small subspace of ℜm ->the m-dimensional
face image x can be characterized by a feature vector of much lower dimensionality.-> Xi will be correlated.

Assume that we have enough training samples->Xi is an over-complete

dictionary1->class i can be sparsely represented over dictionary Xi.

表情或者亮度不同的脸部图片属于一个维度很低的子空间,当训练集足够的时候,Xi
将是一个过完备的字典,于是,如果 y 属于某一类,y 就可以被稀疏的表示。(用相关性强 的矩阵表示远比用正交矩阵表示的结果选择的可能性多,且稀疏)

Class = k:

X = [X_{1},X_{2},...,X_{k}]

\alpha=[\alpha_{1},\alpha_{2},...,\alpha_{k}]

y\approx X\alpha

②为什么使用稀疏表征,SRC 对比之前的算法的优势——减小区分相似的分类时的不稳定

If y is from class i, it is more likely that we can use only a few samples (e.g., 5 or 6 samples) in Xi to represent y with a good accuracy. In contrast, we may need more samples in Xj to represent y with nearly thesame accuracy. 

当两个不同的分类之间相关性高,差别小的时候,用传统的方法极易带来误差,而使 用 SRC 可以很好的减小这种误差。对于图像的分类,可以通过样本的数量反应,越接 近真实分类,所使用的样本越少。


实验验证:用两个相似程度高的分类验证,少量的同类别的图片的线性相加可以很好 的接近目标图片。 

(\alpha) = argmin_{\alpha}||y-\Phi \alpha||_{2}

s.t. ||\alpha||_{0}<\xi

e=||y-\Phi \alpha||_{2}

分别用两个分类集作为字典,在不同的可供引用的训练样本数目限制下进行实验,得 到残差。

we can see that when using only a few training samples (<3) to represent the query sample, both of the two classes have big error; when more and more training samples are involved, the representation error decreases. However, the discrimination ability of the representation error will also reduce if too many samples (>10) are used. we may have the following proposition for l0-norm sparsity: a query sample should be classified to the class which could faithfully represent it using less number of samples.

Unfortunately, FR is a typical small-sample-size problem, and Xi is under-complete in general. If we use Xi to represent y, the representation error can be big, even when y is from class i. Consequently, the classification will be unstable not matter the error ei or the sparsity ||αi||p or both of them are used for decision making.

结论:
i、 当表征的训练样本的数目过少时,结果的误差都很大。

ii、 当表征的训练样本的数目太多的时候,对于相似的结果,辨别 将变得不稳定。

iii、 当表征的训练样本的数目适当时,用来自正确的类别的图片表 征时结果要明显优于来自错误的类别。 前面的过程都基于样本集充足的前提,但在实际情况中这个假设很可能不成立,于是 每一个分类中的样本不够, Xi 其实是不完备的,于是仅仅是使用 SR 会带来很大的误差。

③为什么采用CR

Fortunately, one fact in FR is that face images of different classes share similarities. Some sample from class j may be very helpful to represent the testing sample with label i.

于是根据脸部的相似性,用其他分类的图像协同表征。

One interesting point here is that after the collaborative representation (CR) with all classes, SRC classifies y individually (i.e., check class by class).

④CR发挥着重要的作用

For the simplicity of analysis, let’s remove the l1-norm sparsity term in Eq. (1), and then the representation becomes a least square problem:

(\hat{\alpha})=argmin_{\alpha}||y-X\alpha||_{2}^{2}

对于\hat{y}=\sum_{}^{}X_{i}\hat{\alpha}_{i} ,它属于 Xi 的线性叠加,属于 Xi 的张成平面,且与 y 最接近,将其
展开,对于每个分类,y 与 ˆy 的距离都是一样的,于是可 以进一步简化。最后有:

\tfrac{||\hat{y}||_{2}}{sin(\chi _{i},\bar{\chi}_{i})}=\tfrac{||\hat{y}-X_{i}\hat{\alpha_{i}}||_{2}}{sin(\hat{y},\chi_{i})}

就类似于正弦定理:

Such a “double checking” makes the classification more effective and robust

对于同类别的样本,两个向量之间的距离是最近的。 

于是||\hat{y}-X_{i}\hat{\alpha}_{i}||_{2}=\tfrac{||\hat{y}||_{2}sin(\hat{y},\chi_{i})}{sin(\chi_{i},\bar{\chi}_{i})}最小。同时引入两个正弦量,可以使得结果更加准确将距离的比较转换到角度上,越相似两者夹角越小,于此同时与由除该向量外 的其他向量的线性和向量越远。

One problem is that when the number of classes is too big, the least square solution

(\hat{\alpha})=argmin_{\alpha}||y-X\alpha||_{2}^{2}    will become unstable

分类集太大后,即使不用同类的样本,依旧可以不错的表示,与之前的第一个实验有差不 多的意思,同时也是因为脸部图片的相似性。

此时就要加入对稀疏的限制了。

对稀疏的限制是为了使 CR 的表达更加稳定,防止在数量不加以限制的情况下,用其他的 类别也达到不错的表示,从而使结果不稳定。所以 CR 发挥更加关键的作用。

⑤用CRC_RLS验证CR的关键作用

拉格朗日约束方程有:

(\hat{\rho} )=argmin_{\alpha}\left \{ ||y-X\rho||_{2}^{2}+\lambda||\rho||_{2}^{2} \right \}

求解有:

\hat{\rho}=(X^{T}X+\lambda I)^{-1}X^{T}y

于是有CRC_RLS算法:

在实际的数据集上验证得到结果: 分别使用 l1-norm 与 l2-norm,在不同的λ下得到识别的正确率,最后比较。

We test the performance of SRC (l1-regulazied minimization) and CRC_RLS (l2-regulazied minimization) by increasing the value of regularization parameter λ

 λ的值对应着稀疏矩阵的影响,也代表不同程度稀疏性。不同的范数代表了不同的算法 实验需要“否定”l1-norm sparsity 的关键作用。

First, with the increase of sparsity (>0.000001), no much benefit on recognition rate can be gained. Second, l2-regulazied minimization (i.e., CRC_RLS) could get higher recognition rates than l1-regulazied minimization (i.e., SRC) in a broad range of λ. This implies that l1-norm does not play the key role in face classification.

结论:
         i、 l1-norm 与 l2-norm有着差不多的作用,甚至 l2 更好

        ii、 在一定范围的λ中,辨别率很高且稳定,稀疏程度在一定范围影 响不大
        iii、 发挥核心作用的是CR 

⑥ 其他的实验进一步的验证

一, Gender classification

In this section, we validate our claim in Section 3.1 that when the samples in each class are enough, there is no need to code the testing sample over the whole dictionary.

One can see that L1R and L2R get the best results, which validates that coding on each class’ dictionary is more powerful than coding on the whole dictionary when the training samples of each class are enough, no matter l1- or l2 -regularized minimization is used. CRC_RLS gets the second best result, about 1.4% higher than SRC

当样本充足的假设成立时,采用每一类单独表征得结果比 CR 更好。

二, Face recognition

1) Extended Yale B Database——相对充足的训练集上实验(32)-> SRC,CRC 甚至NN, LRC, SVM也取得不错的结果
2) AR database——比较少的训练集上实验(7)-> SRC 和 CRC 总体上明显优于其他的,在维度不同的情况下,两者的结果不同。
3) Multi PIE database——表情,姿势,光照等不同的影响因素-> SRC 和 CRC 总体上明显优于其他的
4) FR with real face disguise——口罩等的遮挡-> SRC 和 CRC 总体上明显优于其他的,不同的遮蔽物下两者的准确度有一定的差异

In all the above FR experiments, both CRC_RLS and SRC are better than NN and LRC because of the benefit brought by CR. On the other hand, the result of CRC_RLS is comparable to SRC, showing that the l1-norm regularization does not bring more benefit than the simple l2-norm regularization in FR

这篇关于笔记-Sparse Representationor Collaborative Representation: Which Helps Face Recognition的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/254418

相关文章

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个

Git 的特点—— Git 学习笔记 02

文章目录 Git 简史Git 的特点直接记录快照,而非差异比较近乎所有操作都是本地执行保证完整性一般只添加数据 参考资料 Git 简史 众所周知,Linux 内核开源项目有着为数众多的参与者。这么多人在世界各地为 Linux 编写代码,那Linux 的代码是如何管理的呢?事实是在 2002 年以前,世界各地的开发者把源代码通过 diff 的方式发给 Linus,然后由 Linus