本文主要是介绍《搜索和推荐中的深度匹配》——1.5 近期进展,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
重磅推荐专栏: 《Transformers自然语言处理系列教程》
手把手带你深入实践Transformers,轻松构建属于自己的NLP智能应用!
尽管传统的机器学习在搜索和推荐匹配方面取得了成功,但深度学习的最新进展为该领域带来了更为重大的进步,提出了许多深度匹配模型。深度学习模型的能力在于能够从原始数据(例如,文本)中学习匹配问题的分布式表示形式,避免手工制作功能的许多限制,并以端到端的方式学习表示形式和匹配网络。此外,深度神经网络具有足够的能力来对复杂的匹配任务进行建模。它们具有灵活性,可以自然地扩展到跨模式匹配,在这种模式下,可以学习通用语义空间来普遍表示不同模式的数据。所有这些特征有助于处理搜索和推荐的复杂性。
在搜索中,深度神经网络可以更有效地解决查询和文档之间的不匹配问题,包括前馈神经网络(FFN),卷积神经网络(CNN)和递归神经网络(RNN),因为它们具有更强大的功能表示学习和匹配功能学习的能力。最值得注意的是,来自Transformer(BERT)的双向编码器表示形式大大提高了搜索匹配的准确性,并成为当今最先进的技术。
在推荐中,最近的关注点已从以行为为中心的协作过滤转变为信息丰富的用户项匹配,如顺序、上下文感知和知识图增强的建议,这些推荐都是由实际场景驱动的。在技术方面,图神经网络(GNN)成为了一种用于表示学习的新兴工具【1】,因为推荐数据可以自然地组织在异构图中,并且GNN具有利用此类数据的能力。
参阅《图神经网络——【KDD 2019】KGAT》
为了处理用户行为序列数据,还采用了自注意力和BERT,这在顺序推荐中显示出令人鼓舞的结果【2】【3】
参阅《深度推荐模型——BERT4Rec [CIKM 19][Alibaba]》
引文
【1】Wang, X., X. He, Y. Cao, M. Liu, and T. Chua (2019a). “KGAT: Knowledge graph attention network for recommendation”. In: Proceedings
of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, KDD 2019, Anchorage, AK, USA, August 4–8, 2019. 950–958.
【2】Sun, F., J. Liu, J. Wu, C. Pei, X. Lin, W. Ou, and P. Jiang (2019). “BERT4Rec: Sequential recommendation with bidirectional encoder representations from transformer”. In: Proceedings of the 28th ACM International Conference on Information and Knowledge Manage-
ment. CIKM ’19. Beijing, China: ACM. 1441–1450.
【3】Yuan, F., X. He, H. Jiang, G. Guo, J. Xiong, Z. Xu, and Y. Xiong (2020). “Future data helps training: Modeling future contexts for session- based recommendation”. In: Proceedings of the Web Conference 2020. WWW ’20. Taipei, Taiwan: Association for Computing Machinery.
303–313.
这篇关于《搜索和推荐中的深度匹配》——1.5 近期进展的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!