本文主要是介绍更细粒度的不实信息检测|FineFact:Towards Fine-Grained Reasoning for Fake News Detection,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文本推理(FinerFact)
更细粒度的不实信息检测2022
社交媒体中的不实信息(misinformation)是指通过社交网络平台传播的错误的、不准确的信息。现阶段的不实信息检测可从3个方面进行实施:(1)假新闻检测(fake news detection),即对较长文本新闻内容的真实性判别,通常以相关评论意见作为辅助;(2)谣言检测(rumor detection),多是对社交平台短文本的传播分析,即通过民众在社交网络对信息的评论与转发,分析不实消息的传播特征及相关讨论的意见佐证;(3)事实验证(fact verification),即通过搜索引擎对信息涉及内容进行检索,借助事实信息的补充对原有论断的真实与否作出判断。
原文:https://mp.weixin.qq.com/s/3NPeUlZBBKx_f8TbvImfzA
深度学习知识补充学习
多层感知机 MLP https://blog.csdn.net/fg13821267836/article/details/93405572
摘要
文章贡献是:
我们通过遵循人类的信息处理模型,提出了一个细粒度推理框架:
- 介绍了一种基于交互信息的方法,用于整合人类关于哪个证据更重要的知识
- 并设计了一个先验感知的双通道核图网络来建模证据之间的细微差异。
实验证明 模型优于最先进的方法,并证明了方法的可解释性。
论文动机
社交媒体的出现让假新闻在互联网上传播变得更加容易。假新闻会掩盖真相,破坏信仰,造成严重社会影响,因此检测假新闻对于健康、干净的网络环境变得越来越重要。
有人提出用神经模型以数据驱动的方式检测假新闻,这些作品展示了利用大数据进行虚假新闻检测的前景。
从推理的角度来处理这项任务的工作仍然缺乏。推理是有意识地将逻辑应用于求真的能力,通常被认为是人类的一种辨别能力。这种能力对于提高假新闻检测的可解释性和准确性至关重要。
-
可解释性。关于假新闻检测的大多数现有工作要么不提供解释,要么为模型的一小部分(例如,注意层)提供可解释性。模型的主要部分(例如整个工作流程)对人类来说仍然不清楚。这会妨碍人们更好地理解和信任模型,或引导模型进行性能优化。
-
精确性。当人们对一篇新闻文章的真实性进行推理时,他们有能力进行细粒度分析,以识别微妙的(如单词级)线索,并能将不同类型的线索(如文本和社交)联系起来得出结论。
(举例说明如下:)
需要判别的新闻是“从克林顿的地产中发现了三名失踪女性的肢体”,其下是网友的讨论,可辅助作为判别依据,图中展示了4组判别依据。
人类可以用地产(property)一词作为线索,在逻辑上去思考各组证据之间的关联。
组1是对新闻文本的重复和情绪抒发
组2仅是单纯的情绪抒发,对组1进行了强调
组3则对地产进一步推理说明三名女性在他们购置地产前就已死亡,说明新闻可能是假的
而组4则对这样情绪产生的由来进行了推理,说明用户可能因为讨厌克林顿夫妇而发布虚假信息
再如:
根据“财产”进行推理表明,在克林顿夫妇的财产(证据组1)中发现尸体的指控可能是错误的,因为这些妇女在克林顿夫妇购买财产(证据组3)之前已经死亡。
关于“仇恨”的推理表明,第1组和第2组的用户可能会发布虚假消息,因为他们憎恨克林顿夫妇。
第1组和第2组用户之间的重叠进一步强化了这一建议。
现有的方法缺乏这种细粒度推理能力:它们要么不为不同类型的证据之间的交互建模,要么在粗粒度(例如句子或帖子)级别对它们建模。
文章的研究目标是使用深度推理来检测假新闻。目标是通过两个方面提高准确性和可解释性:
1)更好地反映人类思维的逻辑过程
2)对细微线索进行细粒度建模
特别研究了三个问题:
Q1:模型能够按照人类信息处理模型设计吗?(Lang 2000)
Q2:能否将关于哪些证据(如帖子和用户)重要的人类知识更好的融入
Q3:如何对不同类型的细微线索进行细粒度建模
针对以上:
首先,我们遵循人类的信息处理模型(RQ1),设计了一个用于假新闻检测的细粒度推理框架(FineFact)。这使我们能够通过更好地反映人类思维的逻辑过程来检测假新闻,从而增强可解释性,并为整合人类知识提供基础。
第二,我们提出了一种基于相互强化的证据排序方法,这使我们能够更好地结合人类关于哪种类型的证据最重要的先验知识(RQ2)。
最后,我们设计了一个先验感知的双通道核图网络,通过对不同类型的细微线索(RQ3)建模来实现细粒度推理。我们的方法提高了准确性,并提供了有关所识别的细微线索、最重要的索赔证据组以及每组给出的个人预测分数的解释。
模型方法
问题定义
模型的输入有三个方面,每个训练样本包括:
1)一篇待验证的新闻文章S;
2) 一组关于新闻的在线帖子,以及帖子之间的评论/转发关系P;
3)发布帖子P的在线用户U;
模型的输出是新闻的预测标签,它可能是假的y=0 或者 真的 y=1
细粒度推理框架
根据人类的信息处理模型(Lang 2000),提出了一个细粒度的假新闻检测推理框架(FineFact)。我们的框架由两个主要模块组成,如上图所示。
第一个模块,索赔证据图构造,对应于人类信息处理模型的存储子过程,在这个过程中,人们选择最重要的信息片段,并建立它们之间的关联,将它们存储在内存中。
至于假新闻检测,它对应于人们搜索关键信息的过程,如主要观点、意见领袖和最重要的帖子,这使他们能够了解关键主张及其相关证据(例如,支持的帖子和用户)。
这一步对于过滤噪音、组织事实以及在后期加速细粒度推理过程至关重要。它还使我们能够结合人类关于哪些信息是重要的知识。
第二个模块,基于图的细粒度推理,对应于人类信息处理模型的检索子过程,在这个过程中,人们根据自己的关联重新激活特定的信息片段,以进行决策。
在假新闻检测中,该模块通过考虑微妙的线索,如“财产”、”仇恨”和图1中的重叠用户,实现证据关系的细粒度建模。
基于人类信息处理模型的框架,我们的方法的整体工作流程类似于人类使用的逻辑过程,大多数中间结果是普通用户可以理解的。这为用户信任模型并通过集成人类知识来引导它提供了良好的基础。
断言证据图构造
图构造包含两部分 :1) 基于相互强化的证据排序,通过结合人类知识(过滤噪音),将重要证据与噪音区分开来; 2) 主题发现索赔证据联合,它遵循记者关于优质新闻的知识(2005年卓越新闻奖),提取关键主张,并将其与相应的证据(组织事实)联系起来
基于相互强化的证据排序
Q:何为人类知识?
关于新闻的帖子和支持新闻的用户都可以作为核实新闻的证据,但规模很大,GPU内存有限,通过考虑所有证据进行细粒度推理即使不是不可能,也是相当困难的。
为了以可解释的方式高效、准确地识别最有价值的证据,我们建议通过整合人类知识对证据进行排序。
根据人类知识是考虑证据的固有属性(Lampos et al.2014)还是拓扑信息(Pasquinelli 2009),可以将人类知识分为两种类型。我们观察到,这两种类型的知识可以整合到一个框架中,并通过使用相互增强机制高效地计算(Duan等人,2012年)。具体而言,我们基于相互强化的证据排名包括以下三个步骤。
Step1:属性显著性计算
我们根据现有文献中总结的人类知识计算属性显著性E。
具体而言,通过使用用户影响指数来计算用户 u i u_i ui的属性显著性 e u i e_{ui} eui :
ϕ I ϕ O ϕ L \phi^I \phi^O \phi^L ϕIϕOϕL分别表示 u i u_i ui的关注者计数、朋友计数和列表计数,θU是一个平滑常数,用于确保最小显著性得分始终为正 。
每个帖子 p i p_i pi的属性显著性 e p i e_{pi} epi 基于其转发次数 C i C_i Ci计算的,考虑到转发很少提供额外的文本信息,通常被视为对原始帖子的投票。
每个关键词的 k i k_i ki属性显著性 e k i e_{ki} eki设置为。
其中, f r e q ( k i ) freq(k_i) freq(ki)是关于新闻文章和帖子的 k i k_i ki术语频率。
step2:相互强化证据图构建
构建了相互增强证据图M,以便对帖子、用户或关键字内的关系以及它们之间的关系进行编码,从而有效地建模拓扑显著性。
数学上地, M = { A x y ∣ x , y ∈ { P , U , K } } M=\left\{A_{x y} \mid x, y \in\{P, U, K\}\right\} M={Axy∣x,y∈{P,U,K}}是一个三层图,其中下标索引P、U、K表示帖子、用户和关键字, A x y A_{x y} Axy表示项目之间关系的关联矩阵。
基于两个考虑因素来设计图,1) M应该有效地编码不同类型的社会互动;2)M中的边应该显示项目之间在显著性方面的相互影响。例如,在用户和他们的帖子之间构建边意味着,如果一个用户很重要,那么他/她的帖子就很重要,反之亦然。这样的人类知识有关哪些项目应该在显著性方面相互影响可以有效地融入边设计中。
基于这些考虑,构造M:利用帖子的词频向量之间的余弦相似性 ( A P P A_{PP} APP) ;用户之间的评论关系( A U U A_{UU} AUU);关键词之间的共现关系( A K K A_{KK} AKK);将关键字链接到所有帖子和提及它的用户的提及关系( A K P A_{KP} AKP, A K U A_{KU} AKU);以及将用户链接到其发布的所有帖子的创作关系 ( A U P A_{UP} AUP)等 构造M。关于M的构造以及人类知识如何使用的更多细节,请参见附录。
step3:迭代显著性传播
然后根据相互增强显著机制计算显著性R。
特别地,我们处理属性显著性 E E E视为先验,并将其与M上的显著性传播过程相结合。
(具体这个迭代式子为什么为这样不太清楚)
R ( i ) R^{(i)} R(i)第i次迭代中的联合排名得分向量, A ~ \tilde{A} A~是 A ^ \hat{A} A^导出的标准化的关联矩阵,βxy是一个平衡权重,用于调整帖子、关键字和用户之间的交互强度。
可解释性和效率
设计的方法具有高度的可解释性和可操作性,因为每种类型的显著性都可以很容易地向人类用户解释和控制。如果一个证据(例如,一个受支持的用户)具有较大的属性显著性(例如,有许多追随者),并且与其他显著证据(例如,写一篇显著的帖子)相关,那么它就很重要。通过稍微修改等式,其他类型的人类知识也可以轻松整合。我们的方法也是有效的。
实际上,对24万篇帖子、用户和关键词进行排名需要620秒。在没有证据排名的情况下,对相同数据执行细粒度推理会导致英伟达特斯拉V100出现内存不足问题。
主题感知断言证据联合
考虑到显著性得分R,构建索赔证据图的一种简单方法是选择显著性得分最大的证据片段。然而,这种方法只关注故事的一个方面,很容易掩盖真相。例如,图1中的新闻文章可能被与证据组1相关的帖子占据主导地位,这些帖子是由憎恨克林顿夫妇的用户故意发布的。
为了揭示真相,我们需要密切观察所有四个证据组。这与记者们对高质量新闻的了解相呼应(2005年卓越新闻奖),它指出,一篇高质量的新闻文章应该涵盖多个观点,以揭示故事的两个或多个方面。
基于这一观点,我们提出了一种主题感知方法,包括以下步骤。
step1:主题建模
在文本语料库中挖掘主要观点的典型解决方案是主题建模。
在假新闻检测场景中,文本语料库由每条帖子和新闻句子组成。然后,我们利用LDA挖掘主题,该主题总结了主要观点,并在新闻句子中的主张和证据图中的关键词之间架起了桥梁:
每个主题t由M中的关键字分布表示 P ( k i ∣ t ) \mathbb{P}\left(k_{i} \mid t\right) P(ki∣t),对于每个主题t,它的Top N K N_K NK 关键词 K t K^t Kt是具有最大的 P ( k i ∣ t ) \mathbb{P}\left(k_{i} \mid t\right) P(ki∣t)。
每个新闻句子 s i s_i si都由主题分布表示 P ( t ∣ s i ) \mathbb{P}\left(t \mid s_i\right) P(t∣si),给定一个主题t,它的Top N S N_S NS句子 S t S^t St。
step2:主张和证据提取
根据主题提取关键主张及其相关证据,首先选择总显著性最大的 N T N_T NT 主题:
以这种方式选择的主题不仅涵盖了文章的主要观点,还与M中最显著的证据有关。
对于每个选择的主题t,其相应的主张是在步骤1中提取的Top新闻句子 S t S^t St。关键证据包括两部分。第一部分是t中的关键帖子。给定一组与关键字集 K t K^t Kt相连的帖子,对集合中每个帖子的显著性得分进行归一化,以获得一个概率分布,然后根据分布使用 N P N_P NP 帖子取样一组 P t P^t Pt。
同样地,我们对一组与t相关的 N U N_U NU 用户进行采样,得到 U t U^t Ut。并将 U t U^t Ut视为证据的第二部分。
关键字不被视为证据,因为在没有上下文的情况下,它们对细粒度推理不太有用。为了更有效地建模关键字,我们在细粒度推理中将帖子视为关键字的有序序列。
step:图构造
构造了G,每个节点v对应所选主题的元组 ( t , S t , P t , U t ) \left(t, S^{t}, P^{t}, U^{t}\right) (t,St,Pt,Ut)。
构造G的一种简单方法是,如果重叠单词的百分比大于阈值,则在两个节点之间构建边。然而,这种方法很容易忽略重要的微妙线索 1) 很难找到合适的全局阈值 2) 主题(或证据组)可以用不同的词进行逻辑连接。
基于这一观察,我们选择构建一个完全连通的图,并让细粒度推理模块来决定一组主题是否存在微妙的线索。
基于细粒度图的推理
在构建断言证据图G之后,我们对细微线索进行建模,并通过基于细粒度图的推理有效地利用它们进行预测。我们的方法基于核图注意网络(KGAT)(Liu等人,2020)。我们之所以选择这种方法,是因为它可以有效地模拟语句之间的细微差异,并在图上传播学习到的信息。
然而,KGA T不能直接应用于我们的断言证据图,因为它只处理文本输入,不能整合学习到的显著性R,而显著性R包含了关于哪些证据重要的人类知识。
为了解决这些问题,我们提出了一种先验感知的双通道KGAT,它扩展了KGAT 。
1)利用两个相连的通道从文本(帖子)和社交(用户)输入中模拟微妙的线索。
2)通过注意先验整合关于重要证据的现有知识
从数学上讲,最终预测是通过组合单个节点级预测得到的
这个公式提供了可解释性,每个节点(或主张证据组)给出的单个预测分数,以及节点对最终预测的重要性。因为我们没有用于标签预测或重要性的节点级注释,通过以下方式自动学习:
-
基于双通道核匹配的节点标签预测
-
注意优先的节点重要性学习
整合证据显著性R作为注意先验
基于双通道核匹配的节点标签预测
先介绍独立的通道设计,再说明如何融合通道用于预测。
基于文本的推理通道
基于BERT模型,用[SEP]token(标记)将 S t , P t S^{t}, P^{t} St,Pt 主张和证据帖子连接起来,然后BERT对连接的字符串进行编码。
其中 h v i \mathbf{h}_{v}^{i} hvi表示第i个标记的嵌入, z v \mathbf{z}_v zv,对应于“[CLS]”标记的嵌入,被认为是v的初始文本表示。
通过构造token级转换矩阵 L q , v L_{q,v} Lq,v,可以提取节点 v和q之间的细粒度匹配特征,每个条目 l q , v i , j = cos ( h q i , h v j ) l_{q, v}^{i, j}=\cos \left(\mathbf{h}_{q}^{i}, \mathbf{h}_{v}^{j}\right) lq,vi,j=cos(hqi,hvj)是它们的token表示之间的余弦相似性。对于节点q中的每个token i,我们使用Υ(个)内核来提取token与其邻居v之间的内核匹配特征。
每个ψτ都是一个高斯核,集中在由平均相似性μτ和标准差στ定义的区域。内核匹配特征 ->Ψ 由Υ核组成的,总结了q中的第i个标记与v中的所有标记在不同级别上的相似程度。
事实证明,这种软TF匹配特征是有效的。例如,在图1中,匹配特征可以通过将组4(节点q)中的“恨”与组2(节点v)中的所有单词进行比较来帮助识别它。
这种邻居感知token选择是通过基于->Ψ计算注意分数。
然后我们可以计算从q传播到v的内容:
注意,通过将στ设置为∞, 等式(8)退化为平均池,它为所有令牌分配相等的权重。
给定 Z ^ q , v \hat{\mathbf{Z}}_{q, v} Z^q,v,它包含要传播到v的信息,推导出v的最终的文本表示,通过聚合所有 q ∈ G q \in G q∈G的 Z ^ q , v \hat{\mathbf{Z}}_{q, v} Z^q,v。
基于内核的文本表示κv从整个图中收集细粒度、token级别的细微线索,并可用于从节点v的角度对新闻的真实性进行推理。接下来,我们介绍如何使用用户通道导出基于内核的用户表示,以及如何将这两个通道融合以进行最终预测。
基于用户的推理通道
通过在相互增强证据图M上应用图神经网络APPNP,推导出节点v的初始用户表示 x v \mathbf{x}_v xv。之所以选择APPNP,是因为它高效的消息传递方案使它能够扩展到具有数十万个节点的大型图。
具体来说,对于Ut中的每个用户,我们首先通过使用查找层来获得其特征嵌入,该层对主要用户属性进行编码,包括用户的粉丝数、好友数、列表数、收藏数、状态数、自我描述中的字数,以及有关用户是否已验证或已启用地理位置的帐户状态。然后,我们使用APPNP的消息传递方案来聚合M中来自相邻用户的特征嵌入。
这将为每个用户生成初始用户表示 u v i \mathbf{u}_{v}^{i} uvi,并使用最大池来推导节点v的初始用户表示 X v \mathbf{X}_{v} Xv
然后,我们可以通过使用与基于文本的推理通道中类似的内核注意机制,推导出基于内核的用户表示 κ ~ v \tilde{\kappa}_{v} κ~v。
用户级转换矩阵 L ~ q , v \tilde{L}_{q, v} L~q,v,其中每个条目是两个初始用户表示之间的余弦相似性分数。 κ ~ v \tilde{\kappa}_{v} κ~v这个公式通过考虑基于用户的微妙线索允许我们对最终的预测进行推理,例如图1中用户之间的重叠 。
通道融合
融合通道,更好地整合来自文本和社会(用户)输入的信息。 为此,首先通过聚合文本和用户表示来优化节点级注意分数。
具体来说就是,用式子:
替换上述所说的 γ q , v \gamma_{q, v} γq,v和 λ q , v \lambda_{q, v} λq,v。这使我们能够在基于另一个节点对一个节点进行推理时,结合文本和社交线索。例如,在图1中,当从证据组2的角度对证据组1进行推理时,我们可以考虑与“仇恨”相关的单词和重叠用户。
然后,我们融合基于内核的文本和用户表示,以预测节点v给出的标签:
注意优先的节点重要性学习
节点重要性决定了在检测假新闻时应该更多地考虑哪个主题(节点)。 为了更好地描述每个节点相对于预测标签的相对重要性,我们通过联合考虑它的主张,证据和证据显著性来学习 P ( v ∣ G , R ) \mathbb{P}(v \mid G, R) P(v∣G,R)。
式中,φ(v)是通过将主张与证据进行比较而获得的节点排序特征,δ(v,R)是注意先验使用它来对之前学习到的显著性分数R进行编码,它嵌入了人类关于证据重要性的知识。更具体地说,φ(v)是通过使用核匹配特征 Ψ ⃗ ( L ^ S t , P t i ) \vec{\Psi}\left(\hat{L}_{S^{t}, P^{t}}^{i}\right) Ψ(L^St,Pti)推导出来的,(这里与前面基于文本的的推理部分注意区分),其中 L ^ S t , P t i \hat{L}_{S^{t}, P^{t}}^{i} L^St,Pti是token级的转换矩阵,测量主张St中的token和受支持帖子Pt中的token之间的余弦相似性;注意优先δ(v,R)是通过结合显著性得分RP t、RUt和RKt来学习的,它们对应于与节点v的主题t最相关的Top帖子、用户和关键词,W8、W9、W10是非负权重向量,使我们能够在细粒度推理过程中重新加权每条证据。
(softmax等右下角的角标是什么意思?)
联合优化
让∥Θ∥ 是所有模型参数的L2范数。对于每一篇新闻文章S,我们计算损失:
y ∗ y^* y∗是它的真实标签, p ^ \hat{p} p^是根据公式(3)学习到的概率,λreg是正则化系数。
然后通过最小化 ∑ S ∈ N L S \sum_{S \in \mathcal{N}} \mathcal{L}_{S} ∑S∈NLS来联合优化参数。
实验
实验设置
数据集
我们在两个基准数据集PolitiFact和Gossippop(Shu et al.2020)上进行了实验。
其中包含815篇和7612篇新闻文章,以及关于新闻的社会背景信息,以及记者和领域专家提供的标签。
遵循(Dun et al.2021)对数据进行预处理并进行实验。
Baselines
我们将FineFact方法与八条基线进行比较,这八条基线可分为两组:
第一组(G1)是基于内容的方法,它利用新闻的文本或视觉内容来检测假新闻。
G1包含四个基线:SVM(Y ang等人2012年)、GRU-2(马等人2016年)、RFC(Kwon等人2013年)和DTC(Castillo、Mendoza和Poblette 2011年)。
第二组(G2)由具有知识感知的方法组成,这些方法通过利用辅助知识(如关于在线帖子的知识图谱和社会知识)来检测假新闻。该组包括四种方法:B-TransE(Pan et al.2018)、KCNN(Wang et al.2018a)、GCAN(Lu和Li 2020)和KAN(Dun et al.2021)。
评价指标
评价指标包括:精确度(Pre)、回忆(Rec)、F1分数、准确性(Acc)和ROC曲线下面积(AUC)。
我们进行了5-fold交叉验证,并报告了平均性能。
实施细节
Finefact 与Baselines的性能比较。
消融研究的结果
敏感度分析-核的数量 (影响F1 但是不影响 Acc)
为了选择主题的数量,我们在[2,10]范围内进行了一次网格搜索,并选择了产生最小混乱的数量。BERT在训练过程中被fine-tuned。
整体表现
表1将我们的方法与基线进行了比较。
如表所示,FineFact在两个数据集中的表现都始终优于基线。例如,就F1得分和准确性而言,Finefact在PolitiFact和Gossippop上的表现分别比最具竞争力的基线KAN好6.3%、5.1%和9.7%、5.5%。
->这证明了我们的细粒度推理框架的有效性,该框架使模型能够通过识别和连接不同类型的细微线索进行预测。
与GCAN相比,FineFact在两个数据集上分别增加了8.3%和9.8%的F1。GCAN通过共同注意来模拟文本内容和社会信息之间的交互。
->这意味着我们基于核的注意力的方法可以更好地模拟新闻文章和证据之间的互动。
我们还观察到,包含外部知识的方法(G2)通常比基于内容的方法(G1)表现更好。
->这说明了外部知识在虚假新闻检测中的作用。
消融实验和敏感性分析
我们通过实施我们方法的五种变体来进行消融研究:
1) 在学习节点重要性时,FF-P去除了注意优先δ(v,R)
2) FF-B消除了双通道推理 删除基于用户的推理通道
3) FF-K取代了基于内核的表示学习,使用基于GNN的聚合方案,替换[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
4)FF-I排除节点重要性学习,并为每个节点分配相等的权重
5) FF-M消除了基于相互增强的证据排序,并通过随机抽样为每个主题t选择证据。
图3中的消融研究结果表明,移除每个组件会导致模型性能下降,这证明了我们的主要组件的有效性。
然后,我们通过改变τ核数对FineFact进行敏感性分析。图4显示FineFact在不同的核数下始终优于最先进的基线KAN,这表明了我们方法的鲁棒性。此外,当使用大约11个内核时,性能最好。由于过度拟合,使用更多内核并不一定会带来更好的性能。(为什么改变核数来进行敏感性分析 为什么越多核会造成过度拟合)
个案研究
除了提高准确性,我们的方法还使人类能够理解推理工作流中的大部分内容。
在本案例研究中,我们将说明一则新闻报道的真实性是如何得到证实的,这篇报道是关于FBI律师丽莎·佩奇(Lisa Page)公开她被指示掩盖中国对DNC服务器的黑客行为。FineFact成功地确定了新闻是假的,并详细解释了显著证据、微妙线索和每个观点的预测分数。
识别显著证据
FineFact识别有意义和相关的属于不同主题的关键字。
对于每个主题t,我们可以通过观察其显著性帖子 P t P^t Pt和平均用户显著性 r ˉ U \bar{r}_{U} rˉU进一步了解其关键证据。
主题1的用户支持该新闻是因为他们的政治立场(将中国视为一种威胁),并且通常是不可信的意见领袖(小 r ˉ U t \bar{r}_{U^{t}} rˉUt)。 相比之下,主题4的用户因更客观的原因质疑新闻是虚假的,例如,外部律师不太可能知道服务器黑客(图5A),因此受到了更多的关注(较大的 r ˉ U t \bar{r}_{U^{t}} rˉUt)。
用微妙的线索推理
token级别和用户级别的注意分数αiq,v和ρiq,v揭示了FinerFact检测到的微妙线索。例如,在主题2中,αi2,1和αi2,4最大的单词是“中国”和“阴谋”。
这些线索是有意义和有趣的:在主题2中 关于“中国”不太可能与FBI合作的说法降低了专题1中帖子的可信度,而将“阴谋”与专题4(关于“黑客”)联系起来,使我们能够理解新闻可能是虚假的,因为这样的黑客阴谋很可能是由喜欢谈论它的人编造的(图5B)。
主题1和4也有关联:拥有最大ρi4,1用户2 ,通过评论质疑主题1中的用户,并指出中国在知识产权方面的问题并不意味着中国会入侵服务器
预测每个主题
根据这些微妙的线索,FineFact会对每个节点进行预测。我们的方法理解,来自第1组和第3组的证据意味着新闻是真实的,第二组和第四组的证据表明这条消息是假的。
通过将第2组和第4组的信息传播到第1组(大γq,v),它为第1组分配了接近0.5的低概率分数。它还将一个小节点重要性P(v | G,R)分配给组1。这是合理的,因为组1的用户显著性较低,这可以通过使用注意优先进行建模。
而根据相互增强证据图,第3组中的用户被认为是显著的,但我们发现他们并没有谈论文章是否属实,而是倾向于批评希拉里。我们的模型成功地识别了这一点,并为主题3分配了一个较低的节点重要性。
指导模型
FineFact还为用户提供了引导和完善模型的机会。例如,我们可以将FineFact与Liu et al.(2015)提出的方法相结合,以实现证据排名的交互式优化。详情请参阅补充资料。
总结
我们提出了FineFact,一个用于可解释假新闻检测的细粒度推理框架。我们设计了一种基于交互增强的证据排序方法,以及一个先验感知的双通道核图网络,用于对多组证据进行细粒度推理。实验结果表明了该方法的有效性。
这篇关于更细粒度的不实信息检测|FineFact:Towards Fine-Grained Reasoning for Fake News Detection的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!