Detecting Deceptive Review Spam via Attention-Based Neural Networks

2023-11-20 21:50

本文主要是介绍Detecting Deceptive Review Spam via Attention-Based Neural Networks,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Detecting Deceptive Review Spam via Attention-Based Neural Networks

相关工作

  • 挖掘行为特征
  • 挖掘语言特征
  • 对spammer检测

模型

先前的工作主要是挖掘有效的特征然后利用已有的分类器进行分类,尽管这些方法能学会分类评论,能发现评论是否具有欺骗的嫌疑,但是他们不能区分这条评论是行为上可疑,还是语言上可疑,我们发现该网站上的一些垃圾邮件发送者在没有任何精心掩饰的情况下发表评论,这种情况下可以直接通过语言特征来区分它们。但是,一些狡猾的虚假评论发送者擅长撰写具有丰富经验的合理评论,因此需要对行为进行分析。
在这里插入图片描述

the feature extraction module

本文应用MLP层来从出入特征 F B F_B FB提取行为特征 v B v_B vB v B = t a n h ( W B F B + b B ) v_B=tanh(W_BF_B+b_B) vB=tanh(WBFB+bB), W B ∈ R D B × D o W_B \in R^{D_B \times D_o} WBRDB×Do D B D_B DB是行为特征的输入维度 D o D_o Do是MLP层的输出维度

本文使用CNN来提取文本特征,文本的embedding是 e ( w i ) ∈ R D w e(w_i) \in R^{D_w} e(wi)RDw. Ren and Zhang发现CNN能更有效地提取全局语义信息。本文使用n个filter weight matrix W = { W 1 , W 2 , . . . , W n } W = \{W_1, W_2,...,W_n\} W={W1,W2,...,Wn},然后得到每个filter使用max pooling layer之后的文本向量 v L v_L vL.

the feature attention module

attention的作用:在给定行为环境下学习评论的文本有多可疑,在给定文本环境下学习评论的行为有多可疑

行为attention score: 在这里插入图片描述

语言attention score:在这里插入图片描述

计算weighted score
在这里插入图片描述

最后拼接四个向量,接linear和softmax并输出
在这里插入图片描述

交叉熵损失函数
在这里插入图片描述
感觉写错了

实验数据和结果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这篇关于Detecting Deceptive Review Spam via Attention-Based Neural Networks的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/397669

相关文章

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

什么是 Flash Attention

Flash Attention 是 由 Tri Dao 和 Dan Fu 等人在2022年的论文 FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness 中 提出的, 论文可以从 https://arxiv.org/abs/2205.14135 页面下载,点击 View PDF 就可以下载。 下面我

MonoHuman: Animatable Human Neural Field from Monocular Video 翻译

MonoHuman:来自单目视频的可动画人类神经场 摘要。利用自由视图控制来动画化虚拟化身对于诸如虚拟现实和数字娱乐之类的各种应用来说是至关重要的。已有的研究试图利用神经辐射场(NeRF)的表征能力从单目视频中重建人体。最近的工作提出将变形网络移植到NeRF中,以进一步模拟人类神经场的动力学,从而动画化逼真的人类运动。然而,这种流水线要么依赖于姿态相关的表示,要么由于帧无关的优化而缺乏运动一致性

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

J.U.C Review - ThreadLocal原理源码分析

文章目录 一致性问题一致性问题简介解决一致性问题的常见方法 ThreadLocal什么是 ThreadLocalThreadLocal 的 线程模型ThreadLocal 的工作原理使用场景ThreadLocal 的基本 API1. 构造函数 `ThreadLocal()`2. 初始化方法 `initialValue()`3. 访问器 `get()` 和 `set()`4. 回收方法 `re

A Comprehensive Survey on Graph Neural Networks笔记

一、摘要-Abstract 1、传统的深度学习模型主要处理欧几里得数据(如图像、文本),而图神经网络的出现和发展是为了有效处理和学习非欧几里得域(即图结构数据)的信息。 2、将GNN划分为四类:recurrent GNNs(RecGNN), convolutional GNNs,(GCN), graph autoencoders(GAE), and spatial–temporal GNNs(S

MACS bdgdiff: Differential peak detection based on paired four bedGraph files.

参考原文地址:[http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html](http://manpages.ubuntu.com/manpages/xenial/man1/macs2_bdgdiff.1.html) 文章目录 一、MACS bdgdiff 简介DESCRIPTION 二、用法

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention 文章目录 一、基本原理1. 变分模态分解(VMD)2. 双向时域卷积(BiTCN)3. 双向门控单元(BiGRU)4. 注意力机制(Attention)总结流程 二、实验结果三、核心代码四、代码获取五、总结 时序预测|变分模态分解-双向时域卷积