点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读

本文主要是介绍点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

请点击上方“AI公园”,关注公众号


上次发的这篇文章,由于排版的问题,导致了部分手机无法正常显示公式,经过几个朋友提醒才发现,今天重新发布一次。

摘要:点击率预测在计算机广告中有着重要的作用。在这个应用中,二阶多项式映射和因子分解模型应用的非常广泛。最近,各种种类的因子分解机(FM),领域因子分解机(FFM)在各个点击率预测的竞赛中表现出了其他模型都好的效果。基于我们获胜的经验,本文我们建立了对大型的稀疏数据集进行点击率预测的方法FFM。首先,我们提出了训练FFM的有效的方法,然后,我们对FFM进行了分析,并对比了其他的模型。经验表明,FFM对特定的数据集的效果非常的好,最后,我们发布了一个FFM的包。

1. 介绍

逻辑回归是点击率预测的使用非常广泛的模型,比如说一个数据集有m个样本,640?wx_fmt=png是输入特征,640?wx_fmt=png是对应的标签值,参数640?wx_fmt=png可以通过最小化下面的式子来得到:
640?wx_fmt=png
其中,640?wx_fmt=png是正则化项,损失函数中的线性模型表示为:
640?wx_fmt=png
对于点击率预测来说,特征之间的组合是非常重要的,我们考虑这样一个数据集,如下图:

640?wx_fmt=png

从数据集中可以看到,Gucci的广告在Vogue上有着非常高的点击率,这个用线性模型是没办法学到的,因为这两个变量相互是独立的。为了解决这个问题,提出了两个模型。一个是二阶的多项式映射模型,可以学习两两的组合的特征的参数,第二个是因子分解机,通过分解出隐含特征向量来学些特征间的相互关系。

FFM的一个变体,叫做Pairwise Interaction Tensor Factorization(PITF),用来对个性化的标签进行推荐。在KDD Cup 2012上,PITF的泛化形式“因子分解模型”被提出来。由于名字容易和因子分解机混淆,在这篇文中我们叫这个方法为领域因子分解机(FFM)。FFM和PITF的不同点在于,FFM更加的通用,而PITF只考虑了3个不同的领域,“用户”,“物品“和”标签“。

本文的目的是建立FFM模型用在点击率预测上,主要的结论如下:

  • 我们展示了赢得两个推荐算法比赛的FFM模型

  • 我们将FFM和两个模型进行了对比,FM和Poly2

  • 我们展示了如何进行FFM的训练,包括并行优化和提前停止防止过拟合

  • 我们发布了开源的算法实现

实验代码和工具包如下:

http://www.csie.ntu.edu.tw/~cjlin/ffm/exps
http://www.csie.ntu.edu.tw/~cjlin/libffm

2. Poly2和FM

Poly2可以利用特征间的组合进行建模,通过使用一个线性模型对特征间的组合进行建模,可以比使用核方法更快。这种方法就是Poly2,学习的是特征对的权重。
640?wx_fmt=png
这个式子的时间复杂度是640?wx_fmt=png

FM学习每个特征的隐含向量,每个隐含向量有k维,特征组合的权值由隐含向量的内积得到。
640?wx_fmt=png
变量的数量是n×k,直接计算的时间复杂度是640?wx_fmt=png。将式子变换一下:
640?wx_fmt=png
其中
640?wx_fmt=png
这样,时间复杂度就变为640?wx_fmt=png

3. FFM

FFM的思想起源于PITF,是用在个性化标签的推荐系统上的。在PITF中,使用了3个不同的领域,用户、物品、标签。FFM更加的通用,可以使用更多的字段,而且用在了点击率的预测上。FFM是一个利用了领域信息的FM的变体,为了解释原理,我们使用下面的例子:

640?wx_fmt=png

如果使用FM,可以表示为:
640?wx_fmt=png
在FM中,每个领域由一个特征向量表示,通过和其他邻域特征的内积来表示两个领域特征的组合。然而,由于Nike和Male属于不同的领域,隐含特征对(ESPN,Nike)和(ESPN,Male)的作用很可能是不同的。

在FFM中,每个领域特征由多个特征向量组成,和不同的领域特征进行组合时,使用不同的向量:
640?wx_fmt=png
写成数学的形式:
640?wx_fmt=png
其中,640?wx_fmt=png640?wx_fmt=png分别表示了640?wx_fmt=png640?wx_fmt=png的领域。如果640?wx_fmt=png是领域的个数的话,那么FFM的变量的总的个数是640?wx_fmt=png。时间复杂度是640?wx_fmt=png,但是在FFM中,通常k会比FM中小的多。

3.1 求解最优化问题

我们可以使用梯度下降的方式求解FFM,最近提出了一些自适应学习率的优化方式,我们这里使用了AdaGrad,这个方法用在因子分解上和FFM上效果不错。

初始化的参数640?wx_fmt=png从均匀分布中采样,采样范围是640?wx_fmt=png。算法流程如下:

640?wx_fmt=png

3.2 并行化和共享内存系统

使用多个CPU并行计算,每个CPU独立进行计算。

3.3 增加领域信息

考虑我们常用的LIBSVM的数据格式:

label feat1:val1 feat2:val2 · · · ,

每个特征对(feat:val)表示了特征的索引和值。对于FFM,我们将这种数据格式进行扩展:

label field1:feat1:val1 field2:feat2:val2 · · ·

这样的话,我们需要为每个特征赋予一个领域字段,这对有些特征很容易,而对有些则比较麻烦,我们分三个不同类型的特征来讨论

类别特征

对于线性模型来说,表示类别的特征通常会进行离散化,并转换成几个二值特征。对于一个数据样本:

Yes P:ESPN A:Nike G:Male,

我们可以生成如下的LIBSVM数据格式:

Yes P-ESPN:1 A-Nike:1 G-Male:1

类别的数量是多少,就会生成多少个二值的特征,但是只有其中的一个为1,其余的都是0,在LIBSVM的数据格式中,值为0的特征是不需要写出来的。我们在所有的模型上都是这样使用的,本文中,我们将每个类别特征分解成几个二值特征,然后为每个二值特征加上领域字段。

Yes P:P-ESPN:1 A:A-Nike:1 G:G-Male:1

数值特征

我们考虑下面的数据集,预测一个文章是否能被会议接收。我们使用了3个数值特征,“会议的接受率”,“作者的h索引”,“作者的引用数量”。

640?wx_fmt=png

有两个方法来赋值领域,一个方法是将每个特征作为一个dummy的领域,生成的数据如下:

Yes AR:AR:45.73 Hidx:Hidx:2 Cite:Cite:3

而这些dummy的领域并不提供什么信息,因为只是赋值了特征的名字而已。

另一个方法就是对数值离散化,然后再分成不同的类别,再按类别数据的方式进行处理。生成的数据如下:

Yes AR:45:1 Hidx:2:1 Cite:3:1,

其中AR被四舍五入成整数,不过这种方式的缺点在于,我们很难找到合适的离散化的方式,比如说我们可以将45.73变换成45.7,45,40等等甚至是int(log(45.73)),另外,这样做会损失一点信息。

单领域特征

有些数据集中,所有的数据都是属于同一个领域的,比如NLP的场景,考虑下面的例子,通过一句话来预测这句话表达的情绪。

640?wx_fmt=png

这个例子中,唯一的领域就是句子,如果我们将这个领域赋值给所有的单词,那么FFM就变成了FM。FFM的复杂度是640?wx_fmt=png,使用dummy的领域是不现实的,因为f=n,而n是很大的。

4. 实验

在这部分,我们会先提供我们实验中的一些细节的设置,然后我们会研究超参数的影响。我们发现,和LM和Poly2不同的是,FFM对于epoch的数量很敏感,我们会详细的讨论这个问题,然后我们会用一个提前停止训练的trick,然后再说一说并行化的加速。

然后我们会对比不同的算法,包括FM和Poly2,还有比较不同的实现包,包括LIBLINEAR和LIBFM。

4.1 实验设置

数据集

我们主要考虑Kaggle上的两个点击率预测的数据集Criteo和Avazu,特征工程我们使用了比赛中的方案,见http://github.com/guestwalk/kaggle-2014-criteo and http://github.com/guestwalk/kaggle-avazu 。我们使用了哈希的方式产生了640?wx_fmt=png个特征,数据集的统计值如下:

640?wx_fmt=png

由于测试集没有标注数据,我们在已有的数据上划分训练集、验证集。

平台

实验平台为Intel Xeon E5-2620 2.0GHz处理器 和 128 GB 内存

评估

根据使用不同的模型,我们将640?wx_fmt=png变为640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png,我们使用下面的logistic损失函数:
640?wx_fmt=png
实现

我们使用c++实现了所有的算法,使用了OpenMP来进行并行化。我们的实现包括了线性项和偏置项。为了保持扩展性,不管使用什么模型,领域信息都会存在模型里。对于非FFM模型,不存储领域信息也许会快那么一点点,但是结果应该都是一样的。

4.2 参数的影响

我们进行了实验来研究不同的参数影响,这些参数包括640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png,具体的结果可以见下图:

640?wx_fmt=png

从图中的曲线中可以看出,很多情况下的参数设置可能会出现过拟合的现象,因此,需要进行early stop的操作。

4.3 Early Stop

Early Stop是指在训练的过程中,在还没有达到最佳的结果之前就停止掉,可以用来防止过拟合。对于FFM,我们使用的策略如下:

  1. 将数据集划分成训练集和验证集

  2. 每个epoch结束之后,计算验证集的loss

  3. 如果loss变大了,记录下当前的epoch数,然后到第4步

  4. 如果需要,使用所有的数据重新训练模型,epoch的数量用第三步记录的epoch数

early stopping用起来很难,是因为logloss对于epoch数量很敏感,在验证集上最好的模型,在测试集上未必表现的最好。我们也用了一些其他的防止过拟合的方法,都不如early stopping好。

4.4 加速
4.5 和LM,Poly2,FM模型的对比

我们使用同样的梯度下降的方法,对比了另外的3个模型,然后,我们对比了两个业界领先的包:LIBLINEAR和LIBFM。结果如下:

640?wx_fmt=png

4.5 和其他数据集的对比

在其他的数据集上的对比:

640?wx_fmt=png

我们总结了将FFM应用在其他的数据集的一些指南:

  • FFM在有不同类别,并且可以转换成二值特征的数据集上是很有效的。

  • 如果数据集经过变换之后,稀疏程度不是很高,那么FFM的好处就不是很多。

  • 在数值特征的数据集上,FFM的效果不是很好。

5. 结论

本文中,我们讨论了FFM的实现,以及和其他模型的对比,并使用了不同的模型和不同的数据集进行了实验。在未来的工作中,如果解决过拟合线性是需要去研究的,我们在文中使用了SG作为优化器,其他的优化器在FFM的效果如何,也可以了解下。


这篇关于点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080907

相关文章

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测 目录 时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测基本介绍程序设计参考资料 基本介绍 MATLAB实现LSTM时间序列未来多步预测-递归预测。LSTM是一种含有LSTM区块(blocks)或其他的一种类神经网络,文献或其他资料中LSTM区块可能被描述成智能网络单元,因为

康奈尔大学之论文审稿模型Reviewer2及我司七月对其的实现(含PeerRead)

前言 自从我司于23年7月开始涉足论文审稿领域之后「截止到24年6月份,我司的七月论文审稿GPT已经迭代到了第五版,详见此文的8.1 七月论文审稿GPT(从第1版到第5版)」,在业界的影响力越来越大,所以身边朋友如发现业界有相似的工作,一般都会第一时间发给我,比如本部分要介绍的康奈尔大学的reviewer2 当然,我自己也会各种看类似工作的论文,毕竟同行之间的工作一定会互相借鉴的,我们会学他们

【论文精读】分类扩散模型:重振密度比估计(Revitalizing Density Ratio Estimation)

文章目录 一、文章概览(一)问题的提出(二)文章工作 二、理论背景(一)密度比估计DRE(二)去噪扩散模型 三、方法(一)推导分类和去噪之间的关系(二)组合训练方法(三)一步精确的似然计算 四、实验(一)使用两种损失对于实现最佳分类器的重要性(二)去噪结果、图像质量和负对数似然 论文:Classification Diffusion Models: Revitalizing

【python】python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 python葡萄酒国家分布情况数据分析pyecharts可视化(源码+数据集+论文)【独一无二】 目录 python葡

论文阅读--Efficient Hybrid Zoom using Camera Fusion on Mobile Phones

这是谷歌影像团队 2023 年发表在 Siggraph Asia 上的一篇文章,主要介绍的是利用多摄融合的思路进行变焦。 单反相机因为卓越的硬件性能,可以非常方便的实现光学变焦。不过目前的智能手机,受制于物理空间的限制,还不能做到像单反一样的光学变焦。目前主流的智能手机,都是采用多摄的设计,一般来说一个主摄搭配一个长焦,为了实现主摄与长焦之间的变焦,目前都是采用数字变焦的方式,数字变焦相比于光学

Michael.W基于Foundry精读Openzeppelin第59期——Proxy.sol

Michael.W基于Foundry精读Openzeppelin第59期——Proxy.sol 0. 版本0.1 Proxy.sol 1. 目标合约2. 代码精读2.1 _delegate(address implementation) internal2.2 _implementation() internal && _beforeFallback() internal2.3 fallba

【LLM之KG】CoK论文阅读笔记

研究背景 大规模语言模型(LLMs)在许多自然语言处理(NLP)任务中取得了显著进展,特别是在零样本/少样本学习(In-Context Learning, ICL)方面。ICL不需要更新模型参数,只需利用几个标注示例就可以生成预测。然而,现有的ICL和链式思维(Chain-of-Thought, CoT)方法在复杂推理任务上仍存在生成的推理链常常伴随错误的问题,导致不真实和不可靠的推理结果。

【python】python基于akshare企业财务数据对比分析可视化(源码+数据集+论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 系列文章目录 目录 系列文章目录一、设计要求二、设计思路三、可视化分析 一、设计要求 选取中铁和贵州茅

AIGC-Animate Anyone阿里的图像到视频 角色合成的框架-论文解读

Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation 论文:https://arxiv.org/pdf/2311.17117 网页:https://humanaigc.github.io/animate-anyone/ MOTIVATION 角色动画的

【python】python股票量化交易策略分析可视化(源码+数据集+论文)【独一无二】

👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 【python】python股票量化交易策略分析可视化(源码+数据集+论文)【独一无二】 目录 【python】pyt