运动想象 (MI) 迁移学习系列 (10) : 数据对齐(CA)

2024-03-16 12:20

本文主要是介绍运动想象 (MI) 迁移学习系列 (10) : 数据对齐(CA),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

运动想象迁移学习系列:数据对齐(CA)

  • 0. 引言
  • 1. 相关工作
    • 1.1 黎曼几何
    • 1.2 切线空间映射
    • 1.3 黎曼对齐 (RA)
    • 1.4 欧几里得对齐 (EA)
  • 2. 协方差矩阵质心对齐(CA)
  • 3. 总结
  • 欢迎来稿

论文地址:https://arxiv.org/abs/1910.05878
论文题目:Manifold Embedded Knowledge Transfer for Brain-Computer Interfaces
论文代码:https://github.com/chamwen/MEKT

0. 引言

本篇博客重点考虑数据对齐部分,因为其对后续迁移学习的效果影响非常大。
数据对齐有多种方法,如黎曼对齐(Riemannian Alignment, RA)欧式对齐(Euclidean Alignment, EA)标签对齐(Label Alignment, LA)重心对齐(Centroid Alignment, CA) 等。下面重点介绍CA

CA主要是进行协方差矩阵的质心对齐,对数据的协方差矩阵进行数据对齐操作。。。。

在这里插入图片描述

1. 相关工作

1.1 黎曼几何

所有 SPD 矩阵 P ∈ R C × C P∈R^{C×C} PRC×C 形成可微的黎曼流形。黎曼几何用于操纵它们。下面提供了一些基本定义。

两个SPD矩阵 P 1 P1 P1 P 2 P2 P2 之间的黎曼距离是:
δ ( P 1 , P 2 ) = ∥ log ⁡ ( P 1 − 1 P 2 ) ∥ F , \begin{equation*} \delta \left ({P_{1}, P_{2}}\right)=\left \|{\log \left ({P_{1}^{-1} P_{2}}\right)}\right \|_{F},\tag{5}\end{equation*} δ(P1,P2)= log(P11P2) F,(5)

其中 ∥ ⋅ ∥ F \|\cdot \|_{F} FFrobenius 范式,并且 log 表示特征值 P 1 − 1 P 2 P_{1}^{-1} P_{2} P11P2 的对数 .

{ P i } i = 1 n \{P_{i}\}_{i=1}^{n} {Pi}i=1n黎曼均值是:
M R = arg ⁡ min ⁡ P ∑ i = 1 n δ 2 ( P , P i ) , \begin{equation*} M_{R}=\arg \min _{P}\sum _{i=1}^{n}\delta ^{2}(P,P_{i}), \tag{6}\end{equation*} MR=argPmini=1nδ2(P,Pi),(6)

欧式均值是:
M E = 1 n ∑ i = 1 n P i , \begin{equation*} M_{E}=\frac {1}{n}\sum _{i=1}^{n} P_{i}, \tag{7}\end{equation*} ME=n1i=1nPi,(7)

Log欧式均值是:
M L = exp ⁡ ( ∑ i = 1 n w i log ⁡ P i ) , \begin{equation*} M_{L}=\exp \left ({\sum _{i=1}^{n} w_{i} \log P_{i}}\right), \tag{8}\end{equation*} ML=exp(i=1nwilogPi),(8)

其中, w i w_{i} wi 经常被设置为 1 n \frac{1}{n} n1

1.2 切线空间映射

切线空间映射也称为对数映射,它围绕 SPD 矩阵 M M M 映射黎曼空间 SPD 矩阵 P i P_{i} Pi欧几里得切线空间向量 x i x_{i} xi ,通常是黎曼或欧几里得均值:
x i = u p p e r ( log ⁡ M ( M r e f P i M r e f ) ) , \begin{equation*} \mathbf {x}_{i}=\mathrm {upper}\left ({\log _{M}\left ({M_{ref} P_{i} M_{ref}}\right)}\right), \tag{9}\end{equation*} xi=upper(logM(MrefPiMref)),(9)

其中 u p p e r upper upper 表示取 a 的上三角形部分,一个 c × c c×c c×c 的SPD矩阵形成向量 x i ∈ R 1 × c ( c + 1 ) / 2 \mathbf {x}_{i}\in \mathbb {R}^{1\times c(c+1)/2} xiR1×c(c+1)/2 M r e f M_{ref} Mref 是一个参考矩阵。为了获得与流形局部同态的切线空间 M r e f = M − 1 / 2 M_{ref}=M^{-1/2} Mref=M1/2 是必需的。

全等变换全余不变性是黎曼空间中的两个重要性质
M ( F P 1 F , F P 2 F ) = F ⋅ M ( P 1 , P 2 ) ⋅ F , δ ( G ⊤ P 1 G , G ⊤ P 2 G ) = δ ( P 1 , P 2 ) , \begin{align*} \mathcal {M}\left ({F P_{1} F, F P_{2} F}\right)=&F \cdot \mathcal {M}(P_{1}, P_{2})\cdot F, \tag{10}\\ \delta \left ({G^{\top } P_{1} G, G^{\top } P_{2} G}\right)=&\delta \left ({P_{1}, P_{2} }\right), \tag{11}\end{align*} M(FP1F,FP2F)=δ(GP1G,GP2G)=FM(P1,P2)F,δ(P1,P2),(10)(11)

其中, M M M欧几里得或黎曼均值运算 F F F 是一个非奇异方阵,并且 G ∈ R c × c G\in \mathbb {R}^{c\times c} GRc×c 是一个可逆的对称矩阵。(11)表明,如果两个SPD矩阵都左和右乘以可逆对称矩阵,则两个SPD矩阵之间的黎曼距离不会改变

1.3 黎曼对齐 (RA)

RA首先计算一些静息(或非目标)试验的协方差矩阵, { P i } i = 1 n \{P_{i}\}^{n}_{i=1} {Pi}i=1n ,其中主体没有执行任何任务(或没有执行目标任务),然后是黎曼均值 M R M_R MR 这些矩阵,用作参考矩阵,通过以下转换来减少会话间或主题间的变化
P i ′ = M R − 1 / 2 P i M R − 1 / 2 , \begin{equation*} P_{i}'=M_{R}^{-1/2} P_{i} M_{R}^{-1/2}, \tag{12}\end{equation*} Pi=MR1/2PiMR1/2,(12)

其中 P i P_{i} Pi 是第 i i i 次试验的协方差矩阵 , P i ′ P_{i}' Pi 是对应的对齐协方差矩阵。然后,所有 P i ′ P_{i}' Pi可以通过最小均值距离 (MDM) 分类器进行分类。

1.4 欧几里得对齐 (EA)

尽管RA-MDM已经显示出良好的性能,但它仍然存在一些局限性:
1)它处理黎曼空间中的协方差矩阵,而黎曼空间分类器很少;
2)它从基于ERP的BCI中的非目标刺激中计算参考矩阵,这需要来自新受试者的一些标记试验

EA扩展了RA并通过在欧几里得空间中转换脑电图试验 X i X_i Xi解决了上述问题:
X i ′ = M E − 1 / 2 X i , \begin{equation*} X_{i}'=M_{E}^{-1/2} X_{i},\tag{13}\end{equation*} Xi=ME1/2Xi,(13)
其中, M E M_E ME 是所有脑电图试验协方差矩阵的欧几里得均值,计算公式为 (7)。

然而,EA 只考虑边际概率分布偏移,当 EEG 通道数量较少时效果最好。当有大量通道时,计算 M E − 1 / 2 M_E^{−1/2} ME1/2 可能在数值上不稳定

2. 协方差矩阵质心对齐(CA)

对齐 { X S , i } i = 1 n S \{X_{S,i}\}_{i=1}^{n_{S}} {XS,i}i=1nS { X T , i } i = 1 n T \{X_{T,i}\}_{i=1}^{n_{T}} {XT,i}i=1nT协方差矩阵的质心,因此它们的边际概率分布接近的。

CA作为预处理步骤,减少不同域边际概率分布偏移,并实现从多个源域的转移
P S , i = X S , i X S , i ⊤ P_{S,i}=X_{S,i}X_{S,i}^{\top } PS,i=XS,iXS,i 是第 i i i 源域中的协方差矩阵,以及 M r e f = M − 1 / 2 M_{ref}=M^{-1/2} Mref=M1/2。其中 M M M 可以是 (6) 中的黎曼均值、(7) 中的欧几里得均值或 (8) 中的对数欧几里得均值。然后,我们将协方差矩阵对齐:
P S , i ′ = M r e f P S , i M r e f , i = 1 , … , n S \begin{equation*} P_{S,i}'=M_{ref} P_{S,i} M_{ref},\qquad i=1,\ldots,n_{S} \tag{14}\end{equation*} PS,i=MrefPS,iMref,i=1,,nS(14)

同样,我们可以获得对齐的协方差矩阵 { P T , i ′ } i = 1 n T \{P_{T,i}'\}_{i=1}^{n_{T}} {PT,i}i=1nT 目标域。

CA 具有两个理想的属性:

  1. 边际概率分布偏移最小化。根据全等变换和全等不变性的性质,我们有
    M ( M r e f ⊤ P 1 M r e f , … , M r e f ⊤ P n S M r e f ) = M r e f ⊤ M ( P 1 , … , P n S ) M r e f = M r e f ⊤ M M r e f = I , \begin{align*}&\hspace{-0.5pc}\mathcal M (M_{ref}^{\top }P_{1}M_{ref}, \ldots,M_{ref}^{\top }P_{n_{S}}M_{ref}) \\&= M_{ref}^{\top } \mathcal M(P_{1}, \ldots,P_{n_{S}}) M_{ref} = M_{ref}^{\top } M M_{ref}=I, \tag{15}\end{align*} M(MrefP1Mref,,MrefPnSMref)=MrefM(P1,,PnS)Mref=MrefMMref=I,(15)
    即,如果我们选择 M M M 正如黎曼(或欧几里得)的意思,那么不同域的几何(或算术)中心都等于单位矩阵。因此,源域和目标域的边际分布在流形上更加接近
  2. EEG trial whitening. 在下文中,我们表明每个对齐的协方差矩阵近似于 CA 之后的单位矩阵
    如果我们将参考矩阵分解为 M r e f = [ w 1 , … , w c ] M_{ref}=\begin{bmatrix}\mathbf {w}_{1}, {\dots }, \mathbf {w}_{c}\end{bmatrix} Mref=[w1,,wc], 则 P S , i ′ P_{S,i}' PS,i ( m , n ) (m,n) (m,n) 个元素是:
    P S , i ′ ( m , n ) = w m ⊤ P S , i w n , \begin{equation*} P_{S,i}'(m,n)=\mathbf {w}_{m}^{\top } P_{S,i} \mathbf {w}_{n}, \tag{16}\end{equation*} PS,i(m,n)=wmPS,iwn,(16)
    从公式(15),可以得到:
    w m ⊤ M ( P 1 , … , P n S ) w n = { 1 , m = n 0 , m ≠ n . \begin{equation*} \mathbf {w}_{m}^{\top } \mathcal M(P_{1}, \ldots,P_{n_{S}}) \mathbf {w}_{n}=\begin{cases} 1, & m=n \\ 0, & m\neq n. \end{cases}\tag{17}\end{equation*} wmM(P1,,PnS)wn={1,0,m=nm=n.(17)
    无论是否,上述等式都成立 M M M黎曼均值,或欧几里得均值

对于使用欧几里得均值的 CA,则第 m m m 个 对角线元素 { P S , i ′ } i = 1 n S \{P_{S,i}'\}_{i=1}^{n_{S}} {PS,i}i=1nS 是:
1 n S ∑ i = 1 n S P S , i ′ ( m , m ) = w m ⊤ M ( P 1 , … , P n S ) w m = 1 , \begin{align*} \frac {1} {n_{S}}\sum _{i=1}^{n_{S}}P_{S,i}'(m,m) = \mathbf {w}_{m}^{\top } \mathcal M(P_{1}, \ldots,P_{n_{S}}) \mathbf {w}_{m} = 1, \\ \tag{18}\end{align*} nS1i=1nSPS,i(m,m)=wmM(P1,,PnS)wm=1,

同时,对于每个对角线元素,我们有 P S , i ′ ( m , m ) = ∥ X S , i ⊤ w m ∥ 2 2 > 0 P_{S,i}'(m,m)=\| X_{S,i}^{\top } \mathbf {w}_{m} \|_{2}^{2}>0 PS,i(m,m)=XS,iwm22>0,因此对角线元素 P S , i ′ P_{S,i}' PS,i 约是 1。同样,对角线外的元素 P S , i ′ P_{S,i}' PS,i 约为 0。因此 P S , i ′ P_{S,i}' PS,i 近似为识别矩阵,即对齐的脑电图试验近似变白

具有黎曼均值的 CA 是由欧几里得均值初始化的迭代过程。具有对数-欧几里得均值的CA是CA与黎曼均值的近似值,计算成本较低。因此,(18)也近似地适用于这两种均值。

3. 总结

到此,使用 数据对齐(CA) 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。

欢迎来稿

欢迎投稿合作,投稿请遵循科学严谨、内容清晰明了的原则!!!! 有意者可以后台私信!!

这篇关于运动想象 (MI) 迁移学习系列 (10) : 数据对齐(CA)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/815482

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06