点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读

本文主要是介绍点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

请点击上方“AI公园”,关注公众号


上次发的这篇文章,由于排版的问题,导致了部分手机无法正常显示公式,经过几个朋友提醒才发现,今天重新发布一次。

摘要:点击率预测在计算机广告中有着重要的作用。在这个应用中,二阶多项式映射和因子分解模型应用的非常广泛。最近,各种种类的因子分解机(FM),领域因子分解机(FFM)在各个点击率预测的竞赛中表现出了其他模型都好的效果。基于我们获胜的经验,本文我们建立了对大型的稀疏数据集进行点击率预测的方法FFM。首先,我们提出了训练FFM的有效的方法,然后,我们对FFM进行了分析,并对比了其他的模型。经验表明,FFM对特定的数据集的效果非常的好,最后,我们发布了一个FFM的包。

1. 介绍

逻辑回归是点击率预测的使用非常广泛的模型,比如说一个数据集有m个样本,640?wx_fmt=png是输入特征,640?wx_fmt=png是对应的标签值,参数640?wx_fmt=png可以通过最小化下面的式子来得到:
640?wx_fmt=png
其中,640?wx_fmt=png是正则化项,损失函数中的线性模型表示为:
640?wx_fmt=png
对于点击率预测来说,特征之间的组合是非常重要的,我们考虑这样一个数据集,如下图:

640?wx_fmt=png

从数据集中可以看到,Gucci的广告在Vogue上有着非常高的点击率,这个用线性模型是没办法学到的,因为这两个变量相互是独立的。为了解决这个问题,提出了两个模型。一个是二阶的多项式映射模型,可以学习两两的组合的特征的参数,第二个是因子分解机,通过分解出隐含特征向量来学些特征间的相互关系。

FFM的一个变体,叫做Pairwise Interaction Tensor Factorization(PITF),用来对个性化的标签进行推荐。在KDD Cup 2012上,PITF的泛化形式“因子分解模型”被提出来。由于名字容易和因子分解机混淆,在这篇文中我们叫这个方法为领域因子分解机(FFM)。FFM和PITF的不同点在于,FFM更加的通用,而PITF只考虑了3个不同的领域,“用户”,“物品“和”标签“。

本文的目的是建立FFM模型用在点击率预测上,主要的结论如下:

  • 我们展示了赢得两个推荐算法比赛的FFM模型

  • 我们将FFM和两个模型进行了对比,FM和Poly2

  • 我们展示了如何进行FFM的训练,包括并行优化和提前停止防止过拟合

  • 我们发布了开源的算法实现

实验代码和工具包如下:

http://www.csie.ntu.edu.tw/~cjlin/ffm/exps
http://www.csie.ntu.edu.tw/~cjlin/libffm

2. Poly2和FM

Poly2可以利用特征间的组合进行建模,通过使用一个线性模型对特征间的组合进行建模,可以比使用核方法更快。这种方法就是Poly2,学习的是特征对的权重。
640?wx_fmt=png
这个式子的时间复杂度是640?wx_fmt=png

FM学习每个特征的隐含向量,每个隐含向量有k维,特征组合的权值由隐含向量的内积得到。
640?wx_fmt=png
变量的数量是n×k,直接计算的时间复杂度是640?wx_fmt=png。将式子变换一下:
640?wx_fmt=png
其中
640?wx_fmt=png
这样,时间复杂度就变为640?wx_fmt=png

3. FFM

FFM的思想起源于PITF,是用在个性化标签的推荐系统上的。在PITF中,使用了3个不同的领域,用户、物品、标签。FFM更加的通用,可以使用更多的字段,而且用在了点击率的预测上。FFM是一个利用了领域信息的FM的变体,为了解释原理,我们使用下面的例子:

640?wx_fmt=png

如果使用FM,可以表示为:
640?wx_fmt=png
在FM中,每个领域由一个特征向量表示,通过和其他邻域特征的内积来表示两个领域特征的组合。然而,由于Nike和Male属于不同的领域,隐含特征对(ESPN,Nike)和(ESPN,Male)的作用很可能是不同的。

在FFM中,每个领域特征由多个特征向量组成,和不同的领域特征进行组合时,使用不同的向量:
640?wx_fmt=png
写成数学的形式:
640?wx_fmt=png
其中,640?wx_fmt=png640?wx_fmt=png分别表示了640?wx_fmt=png640?wx_fmt=png的领域。如果640?wx_fmt=png是领域的个数的话,那么FFM的变量的总的个数是640?wx_fmt=png。时间复杂度是640?wx_fmt=png,但是在FFM中,通常k会比FM中小的多。

3.1 求解最优化问题

我们可以使用梯度下降的方式求解FFM,最近提出了一些自适应学习率的优化方式,我们这里使用了AdaGrad,这个方法用在因子分解上和FFM上效果不错。

初始化的参数640?wx_fmt=png从均匀分布中采样,采样范围是640?wx_fmt=png。算法流程如下:

640?wx_fmt=png

3.2 并行化和共享内存系统

使用多个CPU并行计算,每个CPU独立进行计算。

3.3 增加领域信息

考虑我们常用的LIBSVM的数据格式:

label feat1:val1 feat2:val2 · · · ,

每个特征对(feat:val)表示了特征的索引和值。对于FFM,我们将这种数据格式进行扩展:

label field1:feat1:val1 field2:feat2:val2 · · ·

这样的话,我们需要为每个特征赋予一个领域字段,这对有些特征很容易,而对有些则比较麻烦,我们分三个不同类型的特征来讨论

类别特征

对于线性模型来说,表示类别的特征通常会进行离散化,并转换成几个二值特征。对于一个数据样本:

Yes P:ESPN A:Nike G:Male,

我们可以生成如下的LIBSVM数据格式:

Yes P-ESPN:1 A-Nike:1 G-Male:1

类别的数量是多少,就会生成多少个二值的特征,但是只有其中的一个为1,其余的都是0,在LIBSVM的数据格式中,值为0的特征是不需要写出来的。我们在所有的模型上都是这样使用的,本文中,我们将每个类别特征分解成几个二值特征,然后为每个二值特征加上领域字段。

Yes P:P-ESPN:1 A:A-Nike:1 G:G-Male:1

数值特征

我们考虑下面的数据集,预测一个文章是否能被会议接收。我们使用了3个数值特征,“会议的接受率”,“作者的h索引”,“作者的引用数量”。

640?wx_fmt=png

有两个方法来赋值领域,一个方法是将每个特征作为一个dummy的领域,生成的数据如下:

Yes AR:AR:45.73 Hidx:Hidx:2 Cite:Cite:3

而这些dummy的领域并不提供什么信息,因为只是赋值了特征的名字而已。

另一个方法就是对数值离散化,然后再分成不同的类别,再按类别数据的方式进行处理。生成的数据如下:

Yes AR:45:1 Hidx:2:1 Cite:3:1,

其中AR被四舍五入成整数,不过这种方式的缺点在于,我们很难找到合适的离散化的方式,比如说我们可以将45.73变换成45.7,45,40等等甚至是int(log(45.73)),另外,这样做会损失一点信息。

单领域特征

有些数据集中,所有的数据都是属于同一个领域的,比如NLP的场景,考虑下面的例子,通过一句话来预测这句话表达的情绪。

640?wx_fmt=png

这个例子中,唯一的领域就是句子,如果我们将这个领域赋值给所有的单词,那么FFM就变成了FM。FFM的复杂度是640?wx_fmt=png,使用dummy的领域是不现实的,因为f=n,而n是很大的。

4. 实验

在这部分,我们会先提供我们实验中的一些细节的设置,然后我们会研究超参数的影响。我们发现,和LM和Poly2不同的是,FFM对于epoch的数量很敏感,我们会详细的讨论这个问题,然后我们会用一个提前停止训练的trick,然后再说一说并行化的加速。

然后我们会对比不同的算法,包括FM和Poly2,还有比较不同的实现包,包括LIBLINEAR和LIBFM。

4.1 实验设置

数据集

我们主要考虑Kaggle上的两个点击率预测的数据集Criteo和Avazu,特征工程我们使用了比赛中的方案,见http://github.com/guestwalk/kaggle-2014-criteo and http://github.com/guestwalk/kaggle-avazu 。我们使用了哈希的方式产生了640?wx_fmt=png个特征,数据集的统计值如下:

640?wx_fmt=png

由于测试集没有标注数据,我们在已有的数据上划分训练集、验证集。

平台

实验平台为Intel Xeon E5-2620 2.0GHz处理器 和 128 GB 内存

评估

根据使用不同的模型,我们将640?wx_fmt=png变为640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png,我们使用下面的logistic损失函数:
640?wx_fmt=png
实现

我们使用c++实现了所有的算法,使用了OpenMP来进行并行化。我们的实现包括了线性项和偏置项。为了保持扩展性,不管使用什么模型,领域信息都会存在模型里。对于非FFM模型,不存储领域信息也许会快那么一点点,但是结果应该都是一样的。

4.2 参数的影响

我们进行了实验来研究不同的参数影响,这些参数包括640?wx_fmt=png640?wx_fmt=png640?wx_fmt=png,具体的结果可以见下图:

640?wx_fmt=png

从图中的曲线中可以看出,很多情况下的参数设置可能会出现过拟合的现象,因此,需要进行early stop的操作。

4.3 Early Stop

Early Stop是指在训练的过程中,在还没有达到最佳的结果之前就停止掉,可以用来防止过拟合。对于FFM,我们使用的策略如下:

  1. 将数据集划分成训练集和验证集

  2. 每个epoch结束之后,计算验证集的loss

  3. 如果loss变大了,记录下当前的epoch数,然后到第4步

  4. 如果需要,使用所有的数据重新训练模型,epoch的数量用第三步记录的epoch数

early stopping用起来很难,是因为logloss对于epoch数量很敏感,在验证集上最好的模型,在测试集上未必表现的最好。我们也用了一些其他的防止过拟合的方法,都不如early stopping好。

4.4 加速
4.5 和LM,Poly2,FM模型的对比

我们使用同样的梯度下降的方法,对比了另外的3个模型,然后,我们对比了两个业界领先的包:LIBLINEAR和LIBFM。结果如下:

640?wx_fmt=png

4.5 和其他数据集的对比

在其他的数据集上的对比:

640?wx_fmt=png

我们总结了将FFM应用在其他的数据集的一些指南:

  • FFM在有不同类别,并且可以转换成二值特征的数据集上是很有效的。

  • 如果数据集经过变换之后,稀疏程度不是很高,那么FFM的好处就不是很多。

  • 在数值特征的数据集上,FFM的效果不是很好。

5. 结论

本文中,我们讨论了FFM的实现,以及和其他模型的对比,并使用了不同的模型和不同的数据集进行了实验。在未来的工作中,如果解决过拟合线性是需要去研究的,我们在文中使用了SG作为优化器,其他的优化器在FFM的效果如何,也可以了解下。


这篇关于点击率预测《Field-aware Factorization Machines for CTR Prediction》论文精读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080907

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需

MonoHuman: Animatable Human Neural Field from Monocular Video 翻译

MonoHuman:来自单目视频的可动画人类神经场 摘要。利用自由视图控制来动画化虚拟化身对于诸如虚拟现实和数字娱乐之类的各种应用来说是至关重要的。已有的研究试图利用神经辐射场(NeRF)的表征能力从单目视频中重建人体。最近的工作提出将变形网络移植到NeRF中,以进一步模拟人类神经场的动力学,从而动画化逼真的人类运动。然而,这种流水线要么依赖于姿态相关的表示,要么由于帧无关的优化而缺乏运动一致性

2024 年高教社杯全国大学生数学建模竞赛 C 题 农作物的种植策略 参考论文 无水印

持续更新中,2024年数学建模比赛思路代码论文都会发布到专栏内,只需订阅一次!  完整论文+代码+数据结果链接在文末!  订阅后可查看参考论文文件 第一问 1.1 问题重述 这个问题围绕的是华北山区的某乡村,在有限的耕地条件下,如何制定最优的农作物种植策略。乡村有 34 块露天耕地和 20 个大棚,种植条件包括粮食作物、蔬菜、水稻和食用菌。除了要考虑地块的面积、种植季节等,还要确保

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes

论文精读-Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic Scenes 优势 1、构建了一个用于监督原始视频去噪的基准数据集。为了多次捕捉瞬间,我们手动为对象s创建运动。在高ISO模式下捕获每一时刻的噪声帧,并通过对多个噪声帧进行平均得到相应的干净帧。 2、有效的原始视频去噪网络(RViDeNet),通过探