【图对抗】Local-Global Defense against Unsupervised Adversarial Attacks on Graphs

本文主要是介绍【图对抗】Local-Global Defense against Unsupervised Adversarial Attacks on Graphs,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

原文标题: Local-Global Defense against Unsupervised Adversarial Attacks on Graphs
原文代码: https://github.com/jindi-tju/ULGD/blob/main
发布年度: 2023
发布期刊: AAAI


摘要

Unsupervised pre-training algorithms for graph representation learning are vulnerable to adversarial attacks, such as first-order perturbations on graphs, which will have an impact on particular downstream applications. Designing an effective representation learning strategy against white-box attacks remains a crucial open topic. Prior research attempts to improve representation robustness by maximizing mutual information between the representation and the perturbed graph, which is sub-optimal because it does not adapt its defense techniques to the severity of the attack. To address this issue, we propose an unsupervised defense method that combines local and global defense to improve the robustness of representation. Note that we put forward the Perturbed Edges Harmfulness (PEH) metric to determine the riskiness of the attack. Thus, when the edges are attacked, the model can automatically identify the risk of attack. We present a method of attention-based protection against high-risk attacks that penalizes attention coefficients of perturbed edges to encoders. Extensive experiments demonstrate that our strategies can enhance the robustness of representation against various adversarial attacks on three benchmark graphs.


背景

尽管图上的预训练模型已经显示出令人鼓舞的结果,表明这些基于 GNN 的模型也更容易受到图的对抗性攻击。这会影响整个图的表示能力,进而将错误的表示传输到所有下游任务。即使是细微的扰动也会对学习的图表示产生相当大的影响,从而降低下游任务的性能。

目前的方法扰乱干净的图以改变其表示并攻击随后的下游任务。然而,大量研究已经证明,扰动边也会对表示造成不同程度的损害。而且扰动边产生的损伤程度主要取决于边缘的敏感性,对高敏感性边的少量扰动会显着降低模型的表示能力。现有的鲁棒 GNN 预训练模型忽略了敏感边缘保护的要求。图1(b)显示了传统的基于全局防御的鲁棒表示学习方法的分类精度随着扰动边缘比例的增加而降低的趋势。

因此,有两个问题需要解决:1)如何识别敏感边缘? 2)如何保护敏感边缘免受有害攻击?

创新点

在本文中,首先提出扰动边缘危害性(PEH)来区分受攻击的边缘是否敏感;然后,使用基于信息论的测量来量化受攻击的边缘是否有害。接下来,设计了一种算法,结合局部敏感边缘防御和全局防御方法,从局部和全局角度提高表示的鲁棒性。
此外,本文专注于添加边缘而不是删除它们,因为添加边缘比删除边缘更有效,并且需要更多保护。在两个遥远的节点之间添加边将对图的结构产生重大影响,而删除边的节点可能通过高阶邻居连接。

Preliminaries

  • 图表示学习 Graph Representation Learning
    用邻接矩阵 A表示边集 E,X表示特征矩阵。因此 G = (A, X) 表示该图。目标是学习编码器 e,它将输入节点映射到低维表示 z。

  • 互信息 Mutual Information
    互信息 I (X; Y ) 是基于熵的变量 X 和 Y 之间相互依赖性的度量,并且可以解释为一旦变量 X 的值已知,另一个随机变量 Y 的不确定性降低程度。定义为: I ( X ; Y ) = H ( X ) − H ( X ∣ Y ) I (X; Y ) = H (X) − H (X|Y ) I(X;Y)=H(X)H(XY) ,其中 H ( X ) H (X) H(X) 表示变量 X 的熵, H ( X ∣ Y ) H (X|Y ) H(XY) 表示给定 Y 时 X 的条件概率的熵。

  • 投影梯度下降
    在每次迭代结束时,使得梯度朝 l ∞ l_∞ l方向加上微小的扰动
    在这里插入图片描述

模型

1. Min-Max Adversarial Attack

对抗性攻击可以定义为双层优化问题:
在这里插入图片描述
其中 P G Δ 是输入图 G 上扰动矩阵 Δ 的空间。L(·) 是对比损失,即局部表示和全局图摘要之间的负互信息,fθ(·) 是代理模型。本文选择投影梯度下降(PGD)方法作为攻击。

2. 量化对抗性攻击的危害性

本文基于互信息的变化,提出了PEH来量化对抗性攻击的危害性。如果在对抗攻击后,被攻击的图与编码表示之间的相互信息急剧减少,换句话说,需要其他节点来学习扰动图,从而限制了编码器的表达能力。则可以认为被攻击的边缘是敏感的。此外,如果PEH(θ)的值不高,我们不应该特别保护被攻击的边缘。

PEH(θ)可以定义为:
在这里插入图片描述

形式上,当 PEH(θ) > h 时,扰动边缘就足够危险了。

3. 防御措施

在判断被攻击的边缘是否敏感后,我们提出两种不同的防御策略,即局部防御和全局防御。如果PEH(θ) > h,则采用局部防御策略,否则采用全局防御,其中θ表示当前参数。

(1)局部防御

  • 为什么图编码器容易受到对抗性攻击?
    图编码器在无监督学习期间采用聚合来获取相邻节点表示。如果图的边缘被破坏,则在整个聚合过程中“假”邻居将被视为“真”邻居,并且它们的信息将传播到其他节点。因此,我们在无监督预训练的编码器上使用基于注意力的惩罚机制。
  • 首先,使用图注意力网络(GAT)作为图编码器。对于节点 i,逐一计算其一阶邻居节点 j ∈ Ni 及其注意力系数 rij。
    在这里插入图片描述
    其中W是负责增加节点特征维度的参数,||表示向量的串联,a表示拼接的高维特征到实数的映射,本文设计为单层前馈神经网络。
  • 之后,与节点 vi 相关的注意力系数进行softmax归一化。
  • 根据计算的注意力系数对相邻节点的特征进行加权求和,以更新每个节点i的特征。
    在这里插入图片描述
  • 本文希望通过降低污染图中所有扰动边的注意力系数来减少负面影响。我们通过累加扰动边缘的注意力系数来评估扰动边缘对整个系统的影响:
    在这里插入图片描述
    其中 E ∗ E_* E 表示扰动边缘,即添加的边缘。 Sp越小,扰动边缘的影响越小。
  • 为了最小化Sp,设计了损失函数 L a t t L_{att} Latt来同时减少扰动边缘的注意力值并增加干净边缘的注意力值:
    在这里插入图片描述
    其中 E 和 E∗ 分别表示原始边数和扰动边数。请注意,作者试图直接降低所有添加边所接收的注意力系数 aij,导致整体损失无法收敛。
  • 将 Latt 与互信息熵损失 Lm 相加产生局部保护损失。Lm 是干净图和编码表示之间的负互信息。
    在这里插入图片描述
    (2)全局防御
    PEH(θ) 值越低,意味着攻击对当前编码器造成的危险性较小,可以实现不针对扰动边缘的全局防御。通过最大化扰动图与其表示之间的互信息,从而提高表示的整体鲁棒性。以下是全局防御的比较学习目标:
    在这里插入图片描述
优化
  • 如何最大化编码表示和图的全局摘要之间的互信息?
    本文使用原始图中正样本和负样本之间的二元交叉熵损失:
    在这里插入图片描述
  • 参数
    如果PEH(θ)>小时,我们尝试针对敏感边缘进行局部保护。模型参数 Θ 更新如下:
    在这里插入图片描述
    当PEH(θ)<h时,这种攻击的风险很低,只需要在方程11中使用随机梯度下降(SGD)来教授模型全局表示鲁棒性。
    在这里插入图片描述

实验

Ours-Wl 是我们模型的变体,没有局部防御。

1.对抗PGD攻击的下游任务性能

从表2中,我们发现(i)随着扰动率的增加,与基线相比,我们的防御性能也随之上升,这凸显了早期接种疫苗的必要性;(ii) 我们可以看到我们的模型比 Ours-WL 表现更好。这也说明注意力惩罚机制有利于面对对抗性攻击时的表征能力;(iii)随着扰动率的增加,半监督模型的精度偏差更明显。可能是扰动率的增加导致了标签信息与扰动图的不一致。

2.对抗不同对抗性攻击的表现

从图2:当扰动率越高时,模型的性能都会衰减,但本文模型总体下降速度较缓,并始终展现出较好的准确率

3.注意力分数的影响

当使用全局防御时对于扰动的边的注意力已比正常边低。而当使用了局部防御时,与全局防御方法相比,正常边缘获得相对较高的注意力得分。同时,扰动的边缘被迫降低它们之间的注意力系数。

4.敏感度分析

评估两个主要参数(即h和β)在20%比例的攻击下的敏感性。 h控制局部防御或全局防御,β平衡表示在局部防御中的鲁棒性和能力。

我们探讨了Polblogs数据集的敏感性。我们在 0 到 0.5 之间改变 h,从 0 到 1 改变 β。图 4 中的结果表明,我们的模型对特定范围内的变化并不明显敏感。

发现极小值β导致扰动下性能低下,表明所提出的局部和全局防御都是必不可少的。此外,将 β 固定为 0.4,h 固定为 0.2,以在 Cora 和 Polblogs 数据集上实现最佳性能。

这篇关于【图对抗】Local-Global Defense against Unsupervised Adversarial Attacks on Graphs的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/653415

相关文章

brew install opencv@2 时报错 Error: Can't create update lock in /usr/local/var/homebrew/locks!

解决方案,报错里已经说明了: 我的解决方案: sudo chown -R "$USER":admin /usr/local   stackoverflow上的答案 I was able to solve the problem by using chown on the folder: sudo chown -R "$USER":admin /usr/local Also you'

红队内网攻防渗透:内网渗透之内网对抗:横向移动篇Kerberos委派安全RBCD资源Operators组成员HTLMRelay结合

基于资源的约束委派(RBCD)是在Windows Server 2012中新加入的功能,与传统的约束委派相比,它不再需要域管理员权限去设置相关属性。RBCD把设置委派的权限赋予了机器自身,既机器自己可以决定谁可以被委派来控制我。也就是说机器自身可以直接在自己账户上配置msDS-AllowedToActOnBehalfOfOtherIdentity属性来设置RBCD。 所以核心就是谁或什么权限能修改

红队内网攻防渗透:内网渗透之内网对抗:横向移动篇PTH哈希PTT票据PTK密匙Kerberoast攻击点TGTNTLM爆破

红队内网攻防渗透 1. 内网横向移动1.1 首要知识点1.2 PTH1.2.1 利用思路第1种:利用直接的Hash传递1.2.1.1、Mimikatz 1.2.2 利用思路第2种:利用hash转成ptt传递1.2.3 利用思路第3种:利用hash进行暴力猜解明文1.2.4 利用思路第4种:修改注册表重启进行获取明文 1.3 PTT1.3.1、漏洞-MS14068(webadmin权限)-利用

【TensorFlow深度学习】对抗攻击与防御策略在深度学习安全领域的应用

对抗攻击与防御策略在深度学习安全领域的应用 对抗攻击与防御策略在深度学习安全领域的应用:捍卫模型鲁棒性的双刃剑1. 对抗攻击基础2. 对抗攻击的分类与进化3. 防御策略:从理论到实践4. 实战案例:防御策略综合应用结语 对抗攻击与防御策略在深度学习安全领域的应用:捍卫模型鲁棒性的双刃剑 深度学习的广泛应用带来了前所未有的智能服务,但同时也暴露了其安全性问题,尤其是对抗攻击(

内容安全复习 7 - 对抗攻击与防御

文章目录 概述攻击对抗性攻击的目的攻击的损失函数如何攻击FGSM黑盒与白盒真实世界的攻击 防御被动防御主动防御 概述 动机 (1)不仅要在实验室中部署机器学习分类器,也要在现实世界中部署;实际应用 (2)分类器对噪声具有鲁棒性和在“大多数情况下”有效是不够的。 (3)想要鲁棒的分类器用来对付用户愚弄分类器的输入;面对人类的恶意 (4)特别适用于垃圾邮件分类、恶意软件检测、网络入

【Rust 日报】2021-11-21 The RustFest Global - Rust in Arts

RustFest Global 2021:Rust In Arts Edition 日程:(https://rustfest.global/schedule/ 地址:https://watch.rustfest.global/ pigeon-rs:电子邮件自动化工具 Pigeon 是一种命令行工具,用于以廉价且高效的方式自动化电子邮件工作流程。 比如,查询时事通讯的订阅者并向他们发送电子邮件:

红队内网攻防渗透:内网渗透之内网对抗:隧道技术篇防火墙组策略ICMPDNSSMB协议出网判断C2上线解决方案

红队内网攻防渗透 1. 内网隧道技术1.1 学隧道前先搞清楚的知识1.2 常用的隧道技术1.3 判断协议出网的命令1.4 C2上线-开防火墙入站只80&出站只放ICMP1.4.1 icmp隧道上线CS后门1.4.1 icmp隧道上线MSF后门 1.5 C2上线-开防火墙入站只80&出站只放DNS1.5.1 DNS隧道上线CS后门1.5.2 DNS隧道上线MSF后门 1.6 C2上线-SMB-

红队内网攻防渗透:内网渗透之内网对抗:信息收集篇自动项目本机导出外部打点域内通讯PillagerBloodHound

红队内网攻防渗透 1. 内网自动化信息收集1.1 本机凭据收集类1.1.1、HackBrowserData 快速获取浏览器的账户密码1.1.2、Searchall 快速搜索服务器中的有关敏感信息还有浏览器的账户密码1.1.3、Pillager 适用于后渗透期间的信息收集工具,可以收集目标机器上敏感信息 1.2 对外打点扫描类1.2.1、FScan内网综合扫描工具,方便一键自动化、全方位漏扫扫

启动zabbix_agentd报cannot create IPC key for path '/usr/local/zabbix/etc/zabbix_agentd.conf', try to cr

启动service zabbix_agentd start或者/usr/local/sbin/zabbix_agentd -c /usr/local/zabbix/etc/zabbix_agentd.conf (其中-c表示后者是前面的绝对路径),查看日志报错如下: [root@host-192-168-*-*~]# tail -f /tmp/zabbix_agentd.logzabbix_ag

Adversarial Perturbation Constraint对抗扰动约束

对抗扰动约束(Adversarial Perturbation Constraint)是在机器学习和深度学习领域中,一个涉及对抗样本(Adversarial Examples)的概念。对抗样本是指通过对输入数据进行微小、特意设计的扰动,使得模型产生错误预测或分类的输入数据。对抗扰动约束涉及这些扰动的生成和应用时的限制条件。 主要概念 对抗样本:这些是经过精心修改的输入数据,目的是欺骗机器学习