读Applying Deep Learning To Airbnb Search有感

2024-09-01 02:18

本文主要是介绍读Applying Deep Learning To Airbnb Search有感,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

读Applying Deep Learning To Airbnb Search有感

介绍

Airbnb的房屋预订系统对于房主和租客来说是一个双向的平台,房主想出租他们的空间,租客想预订房间。airbnb.com网站一开始是一个简单的根据一个特定的地理位置,召回一个酒店列表。
最初的搜索排序模型是人工评分的,后来梯度提升树(GBDT)代替了人工评分,这是房屋预订系统跨出的一大步,之后随之而来的是系统多次成功的迭代。
基于这个背景,本文讨论用深度学习改善搜索引擎的经验。希望这篇文章,能帮助做搜索引擎的团队从机器学习方法转向深度学习。
正在讨论的搜索排序模型是模型生态系统的一部分,所有的模型都对向用户展示列表的产品顺序作出贡献。这些模型预测房主接受租客预订的可能性和租客对预订过的酒店打五星的概率。(尽量让双方都满意?所以说是双向的嘛)。排序问题中,预测用户下单概率,根据用户下单概率进行酒店是比较难的问题,也是这个模型所针对的问题。
用户搜索会话
一个典型的用户搜索会话如图所示,用户通常进行多次的搜索,并点击某个产品查看详情,用户在某个列表中预订了酒店说明是个不错的排序,由用户搜索点击,并记录他们的行为日志,在原有模型的基础上,根据用户行为日志,训练新的模型。新模型的目标上学习一个评分函数,使得用户预订酒店概率大的排在列表的前面。
模型进化
Our transition to deep learning wasn’t the result of an atomic move;
it was the culmination of a series of iterative re€nements. 这句话我感觉挺好的呀,但是我翻译不出来,大意是使用深度学习不是突然想用它,而是一步步迭代,向着好的方向发展的结果。图二展示了不同模型的ndcg指标。被预订的酒店标记为1,其他酒店标记为0。
在这里插入图片描述

2.1 简单的NN神经网络模型
don’t be a hero.同样很喜欢的一句话呀~从一些错综复杂的用户行为模式和模型开始会消耗我们的研究热情吧,所以先从简单的开始咯。第一个简单的模型呢就是只有一个隐层,隐层全连接32个神经元,后接relu激活函数,如果不接激活函数,第一层输出是wx+b,第二层输出是w1(wx+b),不管接多少层都是线性的,激活函数可以增加模型的非线性性。比如relu激活函数,x小于0时输出0,x大于0,输出y=x。NN模型训练等目标函数,
未完待续。。

这篇关于读Applying Deep Learning To Airbnb Search有感的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1125667

相关文章

AI基础 L9 Local Search II 局部搜索

Local Beam search 对于当前的所有k个状态,生成它们的所有可能后继状态。 检查生成的后继状态中是否有任何状态是解决方案。 如果所有后继状态都不是解决方案,则从所有后继状态中选择k个最佳状态。 当达到预设的迭代次数或满足某个终止条件时,算法停止。 — Choose k successors randomly, biased towards good ones — Close

三相直流无刷电机(BLDC)控制算法实现:BLDC有感启动算法思路分析

一枚从事路径规划算法、运动控制算法、BLDC/FOC电机控制算法、工控、物联网工程师,爱吃土豆。如有需要技术交流或者需要方案帮助、需求:以下为联系方式—V 方案1:通过霍尔传感器IO中断触发换相 1.1 整体执行思路 霍尔传感器U、V、W三相通过IO+EXIT中断的方式进行霍尔传感器数据的读取。将IO口配置为上升沿+下降沿中断触发的方式。当霍尔传感器信号发生发生信号的变化就会触发中断在中断

秋夜思故人有感

秋夜思故人有感 西楼月影碎,轩窗烛泪灰。门前小犬吠,疑是故人归。

JavaScript正则表达式六大利器:`test`、`exec`、`match`、`matchAll`、`search`与`replace`详解及对比

在JavaScript中,正则表达式(Regular Expression)是一种用于文本搜索、替换、匹配和验证的强大工具。本文将深入解析与正则表达式相关的几个主要执行方法:test、exec、match、matchAll、search和replace,并对它们进行对比,帮助开发者更好地理解这些方法的使用场景和差异。 正则表达式基础 在深入解析方法之前,先简要回顾一下正则表达式的基础知识。正则

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

插件maven-search:Maven导入依赖时,使用插件maven-search拷贝需要的依赖的GAV

然后粘贴: <dependency>    <groupId>mysql</groupId>    <artifactId>mysql-connector-java</artifactId>    <version>8.0.26</version> </dependency>

Deep Ocr

1.圈出内容,文本那里要有内容.然后你保存,并'导出数据集'. 2.找出deep_ocr_recognition_training_workflow.hdev 文件.修改“DatasetFilename := 'Test.hdict'” 310行 write_deep_ocr (DeepOcrHandle, BestModelDeepOCRFilename) 3.推理test.hdev

广度优先搜索Breadth-First-Search

目录  1.问题 2.算法 3.代码 4.参考文献  1.问题         广度优先搜索,稍微学过算法的人都知道,网上也一大堆资料,这里就不做过多介绍了。直接看问题,还是从下图招到一条从城市Arad到Bucharest的路径。  该图是连通图,所以必然存在一条路径,只是如何找到最短路径。 2.算法 还是贴一个算法的伪代码吧: 1 procedu

看 刻意练习 有感

该文章主要从几个事例以及生物方面介绍并验证了刻意练习对于技能掌握的重要性 成为高手的秘诀就是不断的学习不断的进步 刻意练习就是要在舒适区和恐慌区之间的学习区里面不断打熬,看得见的进步,练习获取反馈,不断调整,努力进取 有兴趣就更好