17.2.20 Sparsifying Neural Network Connections for Face Recognition 小感

本文主要是介绍17.2.20 Sparsifying Neural Network Connections for Face Recognition 小感,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

首先作为自己的第一篇博客,不为别的。在大致读了

> 《Sparsifying Neural Network Connections for Face Recognition》

本文主要是提出了一种稀疏神经元连接的方法。主要是根据神经元之间的相关性正负和大小,只保留对模型影响较大的神经元间的连接,将影响不大的舍去。

本文并不是第一个考虑到减少神经元连接的方法。GoogLeNet在ImageNet的比赛上已经想到了这种方法。GoogLeNet所采用的是选取比较小的卷积核(1×1和3×3的)。本文在3×3的卷积核的基础上设置了一定的稀疏度,用来舍去一些神经元连接。

但是在稀疏之前需要先训练一个完整的network,本文的基础模型与VGG net(每两个卷积层后接着一个最大池化层)类似。但是本文的模型与VGG有一个主要的不同是VGG的最后两个卷积层在本文模型中被替换成了locally-connected层。这么做主要是为了能够学习不同的人脸区域的特征。在第二个locally-connected层后面是一个512维的全连接层,最终可以得到最终的人脸特征。具体的网络信息如图1所示。
网络结构

接下来就是本文的稀疏的具体方法。在训练好的基础模型的基础上,如果一个层这里写图片描述被稀疏,那么一个新的网络模型这里写图片描述会在上一个模型这里写图片描述的基础上重新进行训练。因此会产生{这里写图片描述},其中这里写图片描述是最终的模型。在知道了如何训练稀疏模型之后,需要利用一个二值矩阵来简化神经元连接的稀疏过程。利用0和1来表示该神经元连接是否需要。具体的流程如图2所示。
这里写图片描述

在了解了稀疏的方法之后,如何选择稀疏的程度成为了接下来的主要工作。本文是设置一个稀疏度变量这里写图片描述。在计算了神经元与上一层的每个神经元之间的相关性之后,将其进行排序,进行筛选。有一点需要注意的是,相关性有正有负,有大有小,如何选取?作者认为应该保留正负相关性大的神经元连接,保留相关性较小的神经元连接。主要有三个原因(1)正相关性较大的神经元连接对模型有着正面积极的作用。(2)负相关性大的神经元连接能够帮助减少错误率,抑制负样本。(3)作者猜测是相关性较小的神经元连接对相关性的较大的能起到一个互补的作用。

对于全连接层而言,假设给定一个神经元这里写图片描述,它与前一层的每个神经元之间的连接用这里写图片描述表示,那么该神经元与上一层神经元之间的相关性可以表示为:这里写图片描述。所以最后会随机选取正负相关系数前半部分与后半部分的这里写图片描述这里写图片描述。对于卷积层的神经元连接稀疏,利用如下公式:这里写图片描述

从实验结果可以看出利用稀疏可以提高性能。模型的再训练是在前一个模型的基础上进行训练,这样能够很好的比避免出现局部最优的情况。

这篇关于17.2.20 Sparsifying Neural Network Connections for Face Recognition 小感的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1066441

相关文章

20.Spring5注解介绍

1.配置组件 Configure Components 注解名称说明@Configuration把一个类作为一个loC容 器 ,它的某个方法头上如果注册7@Bean , 就会作为这个Spring容器中的Bean@ComponentScan在配置类上添加@ComponentScan注解。该注解默认会扫描该类所在的包下所有的配置类,相当于之前的 <context:component-scan>@Sc

PAT-1039 到底买不买(20)(字符串的使用)

题目描述 小红想买些珠子做一串自己喜欢的珠串。卖珠子的摊主有很多串五颜六色的珠串,但是不肯把任何一串拆散了卖。于是小红要你帮忙判断一下,某串珠子里是否包含了全部自己想要的珠子?如果是,那么告诉她有多少多余的珠子;如果不是,那么告诉她缺了多少珠子。为方便起见,我们用[0-9]、[a-z]、[A-Z]范围内的字符来表示颜色。例如,YrR8RrY是小红想做的珠串;那么ppRYYGrrYBR2258可以

HTML(20)——定位

定位 作用:灵活的改变盒子在网页中的位置 实现: 定位模式:position边偏移:设置盒子的位置 leftrighttopbottom 相对定位 position:relative 改变位置的参照物是自己原来的位置,并且不脱标占位,标签显示模式特点不变 绝对定位 position:absolute 使用场景:子级绝对定位,父级相对定位  脱标不占位参照物:先找最近的已经

C++20中的Feature Test Mocros

C++20定义了一组预处理器宏,用于测试各种语言和库的feature。       Feature Test Mocros(特性测试宏)是C++20中引入的一种强大机制,用于应对兼容性问题。Feature Test Mocros作为预处理器指令(preprocessor directives)出现,它使你能够在编译过程中仔细检查特定语言或库功能(particular language

自然语言处理领域的明星项目推荐:Hugging Face Transformers

在当今人工智能与大数据飞速发展的时代,自然语言处理(NLP)已成为推动科技进步的重要力量。而在NLP领域,Hugging Face Transformers无疑是一个备受瞩目的开源项目。本文将从项目介绍、代码解释以及技术特点等角度,为您深入剖析这一热门项目。 一、项目介绍 Hugging Face Transformers是一个包含众多NLP领域先进模型的开源项目,由Hugging F

2025秋招NLP算法面试真题(二)-史上最全Transformer面试题:灵魂20问帮你彻底搞定Transformer

简单介绍 之前的20个问题的文章在这里: https://zhuanlan.zhihu.com/p/148656446 其实这20个问题不是让大家背答案,而是为了帮助大家梳理 transformer的相关知识点,所以你注意看会发现我的问题也是有某种顺序的。 本文涉及到的代码可以在这里找到: https://github.com/DA-southampton/NLP_ability 问题

【LocalAI】(13):LocalAI最新版本支持Stable diffusion 3,20亿参数图像更加细腻了,可以继续研究下

最新版本v2.17.1 https://github.com/mudler/LocalAI/releases Stable diffusion 3 You can use Stable diffusion 3 by installing the model in the gallery (stable-diffusion-3-medium) or by placing this YAML fi

每日文献:2018-02-20

自然选择的分子印迹(精读第一天) 由于最近不知不觉开始涉及群体遗传学,所以准备精读(其实就是原文翻译)一篇review尽力去了解这个我陌生的领域。文章原标题为Molecular Signatures of Natural Selection, 作者Rasmus Nielsen。 简介 群体遗传学数十年来一直被一个问题所困扰,那就是如果在观察物种中存在一个遗传变异,那么应该如何定量得描述

BookSim2 安装步骤教程 Network-on-Chips (NoCs) 片上网络模拟器 含视频

BookSim简介 BookSim2 一个用于Network-on-Chips (NoCs) 芯片上网络的周期精确模拟器。该模拟器的设计是为了实现网络组件的模拟灵活性和精确建模。  BookSim1 是一个通用的网络模拟器,并不专门针对片上环境。不支持在片上网络环境中提出的一些更先进的功能和拓扑结构。 背景 随着集成在单个芯片上的核心和模块数量的不断增加,片上网络正成为现代微处理器不可或缺

[Dubbo] connections 参数

一、用途 为某个接口创建独立的连接通道,若未配置该参数,则共享一个连接通道。 二、配置方式 消费者: <dubbo:reference protocol="dubbo" id="demoApi" version="${dubbo.service.version}"interface="com.wlm.demoApi" check="false" timeout="2000" connect