脑电公开数据集解码准确率再创新高, Weight-Freezing立大功

本文主要是介绍脑电公开数据集解码准确率再创新高, Weight-Freezing立大功,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

e64a8f27b7eb2a62df2f0ad37a340f56.png

鉴于人工神经网络(ANN)具有强大的特征提取和分类能力,它们正在成为BCI 应用中解码EEG 信号的热门选择(Schwemmer et al. (2018); Acharya et al. (2018))。例如,Schirrmeister 等人(2017)探索了Shallow-ConvNet 和Deep-ConvNet 在MI 和运动执行(ME)EEG 信号中的特征提取能力(Schirrmeister et al. (2017))。Lawhern 等人(2018)在Shallow-ConvNet 解码器中添加了一个时间卷积层,并使用可分离卷积来提高解码器在各种EEG 范式下的性能(Lawhern et al. (2018))。Borra 等人(2020)提出了一种轻量级浅层CNN,它堆叠了一个时间同步卷积层和一个空间深度卷积层,以提取高效的MI 和ME-EEG 特征(Borra et al. (2020))。在我们之前的工作中,我们提出了LMDA-Net,它在原始的时域和空域卷积基础上增加了通道注意力模块和深度注意力模块,以增强各种BCI 任务的特征提取能力(Miao et al. (2023))。这些模型都是端到端的人工神经网络,旨在从特征提取网络的角度增强ANN 对EEG 信号的解码能力。然而,据我们所知,没有工作研究过端到端ANN 中的分类器对EEG 解码性能的影响。其中一个重要原因可能是机器视觉、自然语言处理或EEG 解码中分类器的设置相对固定,通常使用一个或多个全连接层进行分类。这项研究面临的问题是,对于具有低信噪比和小数据量的EEG 信号,现有的全连接网络是否是最优的分类器。

51b96a9783778a671b16c2929d205cb5.png

▲图1: Weight-Freezing 前后的比较图。(左图) 标准的全连接网络。(右图) 带有Weight-Freezing 的全连接层。虚线表示冻结的权重。

为了探讨这个问题,本研究提出了一种Weight-Freezing 技术。顾名思义,Weight-Freezing 在全连接层的反向传播过程中冻结了部分权重。如图1所示,与全连接网络相比,Weight-Freezing 抑制了全连接网络中一些参数的更新,从而在分类决策过程中有效地抑制了一些输入神经元对决策结果的影响。

# 贡献:

1. 据我们所知,本文是第一篇研究ANN 中分类器对EEG 解码性能影响的论文。为此,我们提出了Weight-Freezing 技术,通过冻结全连接层中的某些参数,抑制了某些输入神经元对特定决策结果的影响,从而实现更高的分类准确性。

2. Weight-Freezing 也是一种新颖的正则化方法,可以在全连接网络中实现稀疏连接。

3. 我们在三个经典解码网络和三个高引用的公开EEG 数据集上对Weight-Freezing 进行了全面验证和分析。实验结果验证了Weight-Freezing 在分类方面的优越性,并在这三个高引用数据集上取得了最先进的分类性能(对所有参与者的分类准确率进行平均)。

本研究另一个贡献在于强化了人工神经网络(ANN)模型在脑机接口(BCI)系统中的应用和实施。同时,它为将来使用更大模型(如transformers Vaswani et al. (2017))解码EEG 信号设定了新的性能基准。最近,(Ahn et al. (2022); Bagchi and Bathula (2022); Zhang et al. (2023); Ma et al. (2023); Song et al.(2023))越来越多的研究人员采用transformer 网络进行EEG 信号解码。这些方法可以视为对现有ANN 模型的丰富,通过更复杂的特征提取网络提高EEG 分类准确性。然而,这些改进不可避免地使得在真实世界的BCI 系统中部署这些ANN 模型变得更加复杂。与之形成鲜明对比的是,我们的研究引入了Weight-Freezing 作为一种创新的减法策略来改进现有的ANN 模型。借助Weight-Freezing ,一些轻量级和浅层的解码网络在相同的公开数据集上超越了所有当前基于transformer 的方法的分类性能。Weight-Freezing 的引入不仅简化了在BCI 系统中部署ANN 模型的过程,还为未来部署更大模型(如transformer)设定了新的性能标准。

# 与Dropout的区别

ee13efd716c59c1ccaf25d638388598c.png

▲图 2: Dropout 与 Weight-Freezing 在正则化时的区别 (左图): 使用 Weight-Freezing 实现正则化。(右图): 使用 Dropout实现正则化。

Weight-Freezing 和Dropout 都可以被视为神经网络中的正则化方法,用于防止过拟合。Weight-Freezing 和Dropout 的实现原理比较如下:

1. 作用目标:Dropout 通过改变神经元的激活状态实现稀疏连接,而Weight-Freezing 通过将掩码部分的可学习参数设为0来实现全连接层的稀疏连接。

2. 信息传递:Dropout 影响前向传播和反向传播,而Weight-Freezing 仅影响反向传播。

3. 作用方式:Dropout 丢弃的神经元完全失去决策能力,而Weight-Freezing 仅影响部分神经元的决策能力。

4. 灵活性:Dropout 和Weight-Freezing 都可以应用于全连接层。此外,由于Dropout 和Weight-Freezing 具有不同的实现原理,它们可以同时使用。

# 实验结果1:

运动想象4分类(BCI4-2A, 22导联, 左手, 右手, 双脚和舌头)

34cbfd0567918686070752c793d86ada.png

运动想象2分类(BCI4-2B, 3导联, 左手, 右手)

dba311c79c7b3f99e8423bb4a46efbf1.png

运动执行4分类(High-Gamma, 44导联, 左手, 右手, 双脚, 休息)

89409252364f34cd3c69417d53382eef.png

# 实验分析

EEGNet, Shallow-ConvNet, LMDA-Net全连接与Weight-Freezing训练对比图. (基准FBCSP+NBPW)

以BCI4-2A四分类运动想象为例, 下图呈现了两个有意思的结论. FBCSP+NBPW是机器学习算法是运动想象中的代表方法, 基于Weight-Freezing的人工神经网络算法在各个被试中的分类表现已经和FBCSP+NBPW拉开了明显的差距.在对EEGNet, Shallow-ConvNet和LMDA-Net进行了200轮训练以后, 这些人工神经网络的分类表现就体现出了优势, 这有望推动人工神经网络在BCI系统中的部署和应用. 另一个有趣的现象是, Weight-Freezing能全面提升EEGNet, Shallow-ConvNet和LMDA-Net的分类表现, 尽管这三个解码架构具有很大的差异性, 但是Weight-Freezing具有很好的通用性.

ca3365d219c12c359b2d3d9263267a03.png

对任务期采样长度的鲁棒性

在分类器鲁棒性的实验过程中,有一个有趣的实验结果可能对EEG实验设计相关的科研人员有一些启发。以运动想象为例,目前的实验设置都采用了4s的任务期(对应图中L=1000),但是和3s的任务期(对应图中L=750)相比,部分算法的分类准确率和预测的波动性并没有明显变化,但是却能减少25%的数据量。相信数据量的大幅减低在在线脑机接口系统的中应用有着重要的意义。

fefacd1b3093e9c9ed84ac41fb456a35.png

# 测试准则

为了公平, 公正, 透明地比较不同算法在同一公开数据集中的表现, Weight-Freezing这部分内容沿用了LMDA-Net提出的测试准则, 以此来尽可能消除随机性给不同算法比较带来的偏差. 需要强调的是, 这个准则是我LMDA-Net一直使用的测试准则, 也是我认为目前能做到的能以最公平和透明的方式比较不同人工神经网络模型的测试准则, 但是其也带有一定的主观性. 规则如下:

在算法比较时明确训练集和测试集的划分, 包括每个被试分别拥有多少训练和测试样本, 有无对包含伪迹的数据进行剔除. 如果剔除了部分包含伪迹的数据, 那么剔除的准则是什么, 剔除后的每个被试训练集和测试集的训练数据量是多少? 在我们的研究中, 针对BCI4-2A和BCI4-2B数据集, 我们并没有剔除包含伪迹的数据, 即采用了数据集中全部的训练数据进行训练, 全部的测试数据进行测试. 训练集和测试集的划分遵循数据集中的原始划分. 在High-Gamma中, 我们使用了和Shallow-ConvNet(Schirrmeister et al. (2017)同样的标准来剔除训练集和测试集中包含伪迹的试次.

需不需要使用验证集进行检测人工神经网络的训练过程? 在Weight-Freezing中,我们沿用了LMDA-Net中所提到的标准, 即不对训练集划分额外的验证集. 这么做的考量有两点: (1) 验证集的划分具有随机性, 因为EEG是非稳态数据, 不同验证集的选取带来的结果差异性大, 算法复现难度大. (2) EEG训练数据稀少, 在训练集中划分验证集会一定程度上减少训练样本的数量, 可能会降低ANN模型的准确率.

需不需要使用交叉验证? 在Weight-Freezing中, 我们同样延续了LMDA-Net的测试条件, 即不进行交叉验证. 交叉验证同设置验证集具有相同的问题, 即交叉验证也具有随机性, 这种随机性会影响EEG解码的准确率,以及算法的可重复性. 虽然采用多次实验的求取平均值的方法能一定程度上降低随机性, 但是其仍存在算法可重复性低的问题. 不利于各个算法之间公平透明的比较.

网络参数的随机性. 网络参数的随机性设置也会给不同被试的准确率带来影响, 为了比较算法的泛化性, 论文中常用的方法是以数据集中的各个被试的平均准确率作为算法综合的解码能力的体现. 在Weight-Freezing中,我们同样沿用了LMDA-Net中的测试准则, 让每一位被试都拥有相同的初始化条件. 为此, 我们固定了Numpy和Pytorch中全部的随机数种子, 以此来尽可能保证人工神经网络模型在多次测试中的可重复性.

Early-stopping? 在Weight-Freezing中, 我们同样延续了LMDA-Net中的准则, 即没有使用early-stopping来自动检测人工神经网络的训练程度. 那么如何体现或者衡量人工神经网络在训练过程中波动性呢? 也就是说不同的训练轮次下, 人工神经网络模型表现出来的准确率有一定差异? 在实际BCI系统中, 测试集的数据是没有标签的,那么如何选择最优的解码模型呢? 在Weight-Freezing中, 我们给出的答案是, 训练一定的轮次,然后记录人工神经网络模型在某个训练轮次区间内的平均准确率或中位数. 这种方法得到的平均值和中位数可以代表算法在实际BCI系统中的分类表现, 在实际应用时,即使不能确定最优的人工神经网络模型, 也可以通过投票的方式, 让解码的准确率达到上述平均值或者中位数.

# 主要作者简介:

0b91331f3bb42fa3357e1c8b6174966a.png

苗政清,天津大学精仪学院博士研究生,师从赵美蓉教授, 主要研究方向为轻量级人工神经网络技术在脑机接口中的应用。

更多实验分析, 请参考本文链接: 

https://arxiv.org/pdf/2306.05775.pdf

Weight-Freezing代码,  请参考下面的链接

https://github.com/MiaoZhengQing/WeightFreezing/tree/main

—— End ——

仅用于学术分享,若侵权请留言,即时删侵!

更多阅读

格拉斯哥大学中国博士生提出计算鬼成像架构

专家观点:最近Neuralink FDA IDE的真正含义是什么?

植入式脑机接口技术的医疗器械之路

LMDA-Net第一作者亲自讲述其设计思想

伸手运动想象训练与伸手抓取想象的关系

271b4af14d3210fa6a6be366bcf5d61d.png

   加入社群  

欢迎加入脑机接口社区交流群,

探讨脑机接口领域话题,实时跟踪脑机接口前沿。

加微信群:

添加微信:RoseBrain【备注:姓名+行业/专业】。

加QQ群:913607986

  欢迎来稿  

1.欢迎来稿。投稿咨询,请联系微信:RoseBrain

2.加入社区成为兼职创作者,请联系微信:RoseBrain

60455d5c0bfc54274df5fd5a9f282f89.png

75c3aedbfa43b40a47ffe2b88ad884a1.png

一键三连「分享」、「点赞」和「在看」

不错每一条脑机前沿进展 ~

这篇关于脑电公开数据集解码准确率再创新高, Weight-Freezing立大功的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/227426

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

烟火目标检测数据集 7800张 烟火检测 带标注 voc yolo

一个包含7800张带标注图像的数据集,专门用于烟火目标检测,是一个非常有价值的资源,尤其对于那些致力于公共安全、事件管理和烟花表演监控等领域的人士而言。下面是对此数据集的一个详细介绍: 数据集名称:烟火目标检测数据集 数据集规模: 图片数量:7800张类别:主要包含烟火类目标,可能还包括其他相关类别,如烟火发射装置、背景等。格式:图像文件通常为JPEG或PNG格式;标注文件可能为X

pandas数据过滤

Pandas 数据过滤方法 Pandas 提供了多种方法来过滤数据,可以根据不同的条件进行筛选。以下是一些常见的 Pandas 数据过滤方法,结合实例进行讲解,希望能帮你快速理解。 1. 基于条件筛选行 可以使用布尔索引来根据条件过滤行。 import pandas as pd# 创建示例数据data = {'Name': ['Alice', 'Bob', 'Charlie', 'Dav

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者