推荐算法模型 ----- Attentional Factorization Machines 论文阅读笔记

本文主要是介绍推荐算法模型 ----- Attentional Factorization Machines 论文阅读笔记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文名字:Attentional Factorization Machines:Learning the Weight of Feature Interactions via Attention Network
论文地址:http://staff.ustc.edu.cn/~hexn/papers/ijcai17-afm.pdf
若有错误或不足,烦请各位dalao指教

AFM模型提出的目的和背景

AFM也是一个典型的基于FM思想提出的模型,我们知道为了解决辛普森悖论问题,需要对不同的特征进行组合,但是这些特征组合对最后模型的性能的影响各不相同,所以为了提升模型的预测结果,AFM提出一种attention结构,让对结果有很大促进的特征组合有更大的权值。

AFM的模型结构

在这里插入图片描述
总体的结构就是这个样子,是不是很面熟,这个和NFM模型的结构很类似,只不过NFM在做Bi-interaction之后就直接接入DNN了,而AFM多了一个Attention-based Pooling,并且AFM后面也没有接入深层网络,而是直接做weight sum后再接一个线性映射就输出了,线性映射部分图中其实是省略掉了。

Input & Embedding Layer

AFM和NFM一样,都是对二阶特征组合方程部分进行建模,首先输入部分依然是稀疏特特征和稠密特征concat一起的长向量,这里需要说明一下,关于数值型特征如何参与特征组合,一开始我也没明白,看了很多博客之后,有一位dalao解释的很清楚(附上传送门:传送门)

Pair-wise Interaction Layer

其实,这部分做的工作就是做特征组合,具体的方法如下:
在这里插入图片描述
这个 ⊙ \odot 的意思就是,两个向量对应元素相乘,显然最后的结果仍然是个向量,假设我们有m个特征,最后组合结束之后就会得到 m ( m − 1 ) 2 \frac{m(m-1)}{2} 2m(m1)个组合向量

Attention-based Pooling Layer

这部分其实就相当于NFM在Bilinear interaction layer之后做sum pooling之后在接一个全连接层的操作,文中给出的公式如下:
在这里插入图片描述
这个 P P P就是全连接层的参数,作者指出,如果 P P P的所有值都为1,并且b为0,这个就是FM的二阶交叉项,我来给大家推导一下:
在这里插入图片描述

所以这种结构可以看作是扩展的FM。这样的话可以将向量转化为最后二阶特征组合的分数值(这里注意一下,这个 P P P不是attention score,仅仅是一个映射的权重向量而已),而AFM是要在sum pooling操作的时候,学习一个权重 α i j \alpha_{ij} αij,表达式如下所示:
在这里插入图片描述
文中说,这个权重可以直接通过梯度下降去硬学,但是会有问题,和FM的 w i j w_{ij} wij一样,如果这两个特征组合从来都没在训练集里出现过,那这个权重就学不到了,为了解决这个问题,AFM提出了一个Attention Network的结构,其实就一层而已,具体的表达如下:
在这里插入图片描述
这个结构其实就是把每个组合后的特征向量作为样本输入到网络里,通过一个全连接层使用Relu作为激活函数,再通过一个线性映射将向量转换为数值,具体的网络结构应该如下所示:
在这里插入图片描述
最后的这个值要过一个softmax函数转换为概率(其实这里小弟是有疑惑的,一开始我在想,多个特征组合的向量通过这个attention network是否共享这个W呢?看了几位dalao的代码发现,应该是共享W的),最后AFM的计算公式就变成了下面这个样子:
在这里插入图片描述
前面的那个 y ^ \hat{y} y^里面的b可能合并到偏差 w 0 w_0 w0里面了。

Some Problem

AFM也存在过拟合问题,文中提到为了解决隐藏层不同单元依赖过高的问题,在pair-wise interaction layer加入dropout层(什么是co-adaptations可以看看这篇文章传送门),同时在attention network上加了L2正则化,最终的loss公式如下(以回归问题为例):
在这里插入图片描述
作者提出,没有在attention network里使用dropout的原因是稳定性的问题,同时使用两个dropout层,模型的稳定性变差,影响性能。

实验结果

实验的数据集采用Frappe和MovieLens,评价指标采用的RMSE,为了平衡正负样本的比例,作者每个正样本就随机匹配两个负样本。同时,作者将数据集按7:2:1划分,70%的训练集,20%的验证集(用来调整超参数),10%的测试集用来做对照实验。Baseline为FM(使用LibFM工具包实现),high-order FM(使用HOFM工具包实现),Wide&Deep和DCN,为了验证AFM的效果,作者提出了三个问题:
RQ1:dropout和l2正则化对结果真的有影响吗?效果如何?
RQ2:attention network能不能学习到不同特征组合的权重呢?(就是看AN有没有用)
RQ3:与SOTA相比,AFM有没有提升

超参数设计

优化方法使用adagrad,batch-sized大小设为:Frappe(128),MovieLens(4096),embedding-size设为256,attention-factor设为256(attention-factor就是上文提到的attention-network里的隐藏层的维度),为了防止过拟合,作者还使用了early-stop的策略,同时用FM的embedding结果初始化wide&deep和DCN

超参数结果

在这里插入图片描述
以LibFM的结果作为基线,可以看到加Dropout后确实对结果有所提升,而且实验结果表示,不同的数据集有不同的最优dropout-ratio,而且作者提到文中实现的FM(后面简称为vFM)比LibFM性能好的原因有两点:(1) vFM使用dropout作为正则化的方法而不是l2 (2) vFM使用Adagrad而非SGD(自适应学习率)
在这里插入图片描述
为了验证L2正则化对AFM结果的影响,作者固定dropout为最优值,将 λ \lambda λ从0调整到16,最后的结果如上图所示,看到AFM的RMSE的值仍然在下降,说明L2正则化是有效果的

接下来要寻找最优的attention-factor的值,如下图所示:
在这里插入图片描述
可以看到无论t取多少,这个模型的结果都很稳定,一个极端情况就是取1,那么attention-network的参数W就变成了一个向量,这样整个attention-network就变成了线性变换,但是我们可以看到AFM的结果依然要比FM好很多,这也说明了attention-component的重要性,同时作者记录每20个epoch的loss,如下图所示:
在这里插入图片描述
可以看到,AFM收敛的比FM快,而且效果更好

Micro-level analysis

还是为了验证attention network的重要性,作者将attention-score引入到FM当中,并且固定所有的 α i j = 1 R x \alpha_{ij}= \frac{1}{R_x} αij=Rx1,首先使用FM训练embedding然后固定这个embedding只训练attention-network部分,然后选择三个正样本(target为1),抽出三个特征组合的attention-score进行分析,如下图所示:
在这里插入图片描述
以第一个样本为例,可以看到FM所有的attention-score都是一样的,但是显然item-tag的特征组合对结果是更有效果的,而AFM对于不同的特征组合有不同的权重,并且对结果有促进作用的权重更大,反之权重小一些,从而证明了attention-network的有效性,而且加入attention-score之后,模型的可解释性就更强。

对照实验的结果

在这里插入图片描述
不同的算法对照结果,确实是AFM的效果更好一些

这篇关于推荐算法模型 ----- Attentional Factorization Machines 论文阅读笔记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/324023

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟&nbsp;开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚&nbsp;第一站:海量资源,应有尽有 走进“智听

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了