本文主要是介绍脉冲神经网络(SNN)论文阅读(五)-----AAAI-2024 时间步长逐渐收缩的SNN,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
原文链接:CSDN-脉冲神经网络(SNN)论文阅读(五)-----AAAI-2024 时间步长逐渐收缩的SNN
Shrinking Your TimeStep: Towards Low-Latency Neuromorphic Object Recognition with Spiking Neural Networks
- 目录
- 论文信息
- 主要贡献
- Timestep Shrinkage
- Early Classifier
- 完整的SSNN训练算法
- 实验验证及对比
目录
论文信息
论文地址
arXiv版本(带有附录)地址
由电子科技大学(左琳教授团队)研究人员发表于AAAI 2024。
主要贡献
- 第一个具有异质性时间步长的SNN
- 论文提出了Shrinking SNN (SSNN),SNN的时间步长逐渐收缩,相比于普通的SNN,SSNN的平均时间步长更低,从而实现低延迟、高性能的神经形态目标识别;Timestep Shrinkage方法
- 论文在SNN的多个阶段后引入额外的分类器辅助训练,推理时则无需辅助分类器。从而缓解了代理梯度和真实梯度的误差以及梯度消失/爆炸问题。Early Classifier方法
Timestep Shrinkage
将SNN划分为多个阶段,其中每个阶段的时间步长逐渐收缩降低。
初始阶段的时间步长稍大,以使得SNN能够提取到充分有价值的信息;后面的阶段时间步长较小,以降低整体的推理时延。
MLF方法基于LIF神经元,其主要思路为使用MLF unit(可以理解为新的脉冲神经元)替换掉SNN中的LIF神经元。
Temporal Transformer转换时间步长收缩前后两个阶段的信息维度
-
时间步长收缩需要解决的问题:假设前后两个阶段的时间步长分别为 T 1 T_1 T1和 T 2 T_2 T2,则两个阶段传递的数据维度分别为 T 1 × C × H × W T_1 \times C \times H \times W T1×C×H×W和 T 2 × C × H × W T_2 \times C \times H \times W T2×C×H×W。需要在时间步长收缩的同时转换前一个阶段的输出维度,以使其能够用作后一个阶段的输入。
-
Temporal Transformer:设计了轻量化的Temporal Transformer来转换信息的维度,并最大化地保留有价值的信息。
- 对于前一个阶段的输出 O 1 ∈ R T 1 × C × H × W \boldsymbol{O}_1 \in \mathbb{R}^{T_1 \times C \times H \times W} O1∈RT1×C×H×W先计算 T 1 T_1 T1个时间步长内每个时间步长的总信息 O 1 a v g ∈ R T 1 × 1 \boldsymbol{O}_1^{avg} \in \mathbb{R}^{T_1 \times 1} O1avg∈RT1×1:
O 1 a v g = 1 C × H × W ∑ i = 1 C ∑ j = 1 H ∑ k = 1 W O 1 , i , j , k , \boldsymbol{O}_1^{avg} = \frac {1}{C \times H \times W} \displaystyle \sum_{i=1}^{C} \sum_{j=1}^{H} \sum_{k=1}^{W}\boldsymbol{O}_{1,i,j,k}, O1avg=C×H×W1i=1∑Cj=1∑Hk=1∑WO1,i,j,k,
然后使用非线性转换以及softmax计算 T 2 T_2 T2个时间步长的重要性分数 d ∈ R T 2 × 1 \boldsymbol{d} \in \mathbb{R}^{T_2 \times 1} d∈RT2×1:
d = softmax ( W O 1 a v g ) , \boldsymbol{d} = \text{softmax} (\boldsymbol{W}\boldsymbol{O}_1^{avg}), d=softmax(WO1avg),
其中 W ∈ R T 2 × T 1 \boldsymbol{W} \in \mathbb{R}^{T_2 \times T_1} W∈RT2×T1是非线性转换的可学习权重。softmax函数保证 T 2 T_2 T2个时间步长的重要性分数之和为1,确保后续的信息分配的完整性。
另一方面,计算 O 1 O_1 O1在 T 1 T_1 T1个时间步长内的信息之和(所有时间步长的数据累加) O 1 t o t a l ∈ R C × H × W \boldsymbol{O}_1^{total} \in \mathbb{R}^{C \times H \times W} O1total∈RC×H×W,并依据 d d d将其分配至 T 2 T_2 T2个时间步长内,得到用于后续阶段的输入 I 2 ∈ R T 2 × C × H × W \boldsymbol{I}_2 \in \mathbb{R}^{T_2 \times C \times H \times W} I2∈RT2×C×H×W:
I 2 , t = O 1 t o t a l ⊙ d t = ∑ t ′ = 1 T 1 O 1 , t ′ ⊙ d t , \boldsymbol{I}_{2,t} = \boldsymbol{O}_1^{total} \odot \boldsymbol{d}_t = \sum_{t^{'}=1}^{T_1}\boldsymbol{O}_{1,t^{'}} \odot \boldsymbol{d}_t, I2,t=O1total⊙dt=t′=1∑T1O1,t′⊙dt,
从而在实现时间步长收缩的同时保留有效信息。
- 对于前一个阶段的输出 O 1 ∈ R T 1 × C × H × W \boldsymbol{O}_1 \in \mathbb{R}^{T_1 \times C \times H \times W} O1∈RT1×C×H×W先计算 T 1 T_1 T1个时间步长内每个时间步长的总信息 O 1 a v g ∈ R T 1 × 1 \boldsymbol{O}_1^{avg} \in \mathbb{R}^{T_1 \times 1} O1avg∈RT1×1:
-
平均时间步长
- 假设SNN被分为 n n n个阶段,每个阶段有 n i n_i ni个计算单元(一个卷积层以及脉冲神经元层),每个阶段的时间步长是 T i T_i Ti,则使用时间步长收缩得到的SNN的平均时间步长可计算为:
T a v g = ∑ i n n i T i ∑ i n n i . T_{avg}=\frac {\sum_i^n {n_iT_i}} {\sum_i^n n_i}. Tavg=∑inni∑inniTi. - 由于上式不包含用于分类的全连接层,而全连接层以最小的时间步长 T n T_n Tn运行,因此实际的时间步长要比上式计算得到的结果更小。
- 假设SNN被分为 n n n个阶段,每个阶段有 n i n_i ni个计算单元(一个卷积层以及脉冲神经元层),每个阶段的时间步长是 T i T_i Ti,则使用时间步长收缩得到的SNN的平均时间步长可计算为:
-
额外开销
- 每次时间步长收缩时的Temporal Transformer仅需要一个线性层来实现,所需的开销极小。
Early Classifier
- 基于代理梯度训练SNN遭受着代理梯度和真实梯度不匹配的问题,从而限制了SNN的性能。另外,梯度消失/爆炸问题始终影响着SNN的性能。这些问题对高性能SNN的训练造成了极大的困扰。
- 为了缓和以上问题,受到ANN领域部分方法的启发,提出在训练时候在SNN的每个阶段后添加一个early classifier,early classifier与标签计算损失并且在反向传播时传递梯度。
- 由于这些early classifier比SNN最终的分类器更靠近网络的前面层,因此这些early classifier传递的梯度受到梯度不匹配、梯度爆炸/消失的影响更小,从而促进了SNN的训练。
- 每个early classifier都由卷积层、脉冲神经元层和全连接层组成。进一步地,可以为每一个early classifier设置不同的结构以探索更优的性能增益或是设置一个全局共享的early classifier降低训练期间的开销。
- SNN训练的最终损失由多个early classifier和最终的输出与标签计算损失并加权得到:
L t o t a l = ∑ i n λ i L i ( 1 T i ∑ t T i Y i , t , Y ^ ) \mathcal{L}_{total}=\sum_i^n {\lambda_i \mathcal{L}_i(\frac{1}{T_i}\sum_t^{T_i} {\boldsymbol{Y}_{i,t},\hat{\boldsymbol{Y}}})} Ltotal=i∑nλiLi(Ti1t∑TiYi,t,Y^) - 额外开销:early classifier仅在推理时引入了部分计算及参数开销,不影响推理时SNN的效率。
完整的SSNN训练算法
实验验证及对比
- 在CIFAR10-DVS、N-Caltech101和DVS-Gesture三个神经形态数据集上使用ResNet、VGG架构进行消融实验,平均时间步长设置为5,其性能比baseline大幅提升:
- 在消融实验部分探究了控制多个early classifier的loss权重对性能的影响,实验结果表明只要权重在合理的范围内,SSNN对不同的权重组合并不敏感,始终具有较好的性能:
* 在消融实验部分探究并验证了所提出的Temporal Transformer的效果:
- 基于VGG-9,探究了SSNN划分阶段数量和每个阶段的时间步长对性能的影响,实验结果表明SSNN对阶段划分数量和每个阶段的时间步长设置并不敏感:
- 在不同的平均时间步长下,SSNN始终比普通的SNN具有更好的效果:
- 与现有的SNN方法或架构对比,SSNN基于VGG-9、ResNet架构都取得了更好的效果,甚至超出了Spikformer:
- SSNN与普通的SNN进行脉冲发射率的可视化对比,SSNN能够精确地关注到与识别最相关的区域(DVS-Gesture中的手势部分):
本文由CSDN-lan人啊原创,转载请注明!
这篇关于脉冲神经网络(SNN)论文阅读(五)-----AAAI-2024 时间步长逐渐收缩的SNN的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!