本文主要是介绍Detecting Deceptive Review Spam via Attention-Based Neural Networks,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Detecting Deceptive Review Spam via Attention-Based Neural Networks
相关工作
- 挖掘行为特征
- 挖掘语言特征
- 对spammer检测
模型
先前的工作主要是挖掘有效的特征然后利用已有的分类器进行分类,尽管这些方法能学会分类评论,能发现评论是否具有欺骗的嫌疑,但是他们不能区分这条评论是行为上可疑,还是语言上可疑,我们发现该网站上的一些垃圾邮件发送者在没有任何精心掩饰的情况下发表评论,这种情况下可以直接通过语言特征来区分它们。但是,一些狡猾的虚假评论发送者擅长撰写具有丰富经验的合理评论,因此需要对行为进行分析。
the feature extraction module
本文应用MLP层来从出入特征 F B F_B FB提取行为特征 v B v_B vB, v B = t a n h ( W B F B + b B ) v_B=tanh(W_BF_B+b_B) vB=tanh(WBFB+bB), W B ∈ R D B × D o W_B \in R^{D_B \times D_o} WB∈RDB×Do, D B D_B DB是行为特征的输入维度 D o D_o Do是MLP层的输出维度
本文使用CNN来提取文本特征,文本的embedding是 e ( w i ) ∈ R D w e(w_i) \in R^{D_w} e(wi)∈RDw. Ren and Zhang发现CNN能更有效地提取全局语义信息。本文使用n个filter weight matrix W = { W 1 , W 2 , . . . , W n } W = \{W_1, W_2,...,W_n\} W={W1,W2,...,Wn},然后得到每个filter使用max pooling layer之后的文本向量 v L v_L vL.
the feature attention module
attention的作用:在给定行为环境下学习评论的文本有多可疑,在给定文本环境下学习评论的行为有多可疑
行为attention score:
语言attention score:
计算weighted score
最后拼接四个向量,接linear和softmax并输出
交叉熵损失函数
感觉写错了
实验数据和结果
这篇关于Detecting Deceptive Review Spam via Attention-Based Neural Networks的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!