论文笔记What does BERT know about books, movies and music Probing BERT for Conversational Recommendation

本文主要是介绍论文笔记What does BERT know about books, movies and music Probing BERT for Conversational Recommendation,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文出发点:

  1. 现成的BERT模型在它们的参数中存储了多少关于推荐项目(电影,书籍,音乐)的知识

现象:BERT在NLP领域如此强劲的表现从侧面体现bert的参数里存储了 事实性知识

做了一系列探测实验探查BERT蕴含的两类知识:

  1. content-based:通过item的文本内容匹配item的标题(类别)
  2. collaborative-based:通过匹配相似item

通过三项任务:

  1. MLM掩码语言模型:通过完形填空的形式来做文本内容与文本流派的匹配;
  2. 通过下一句预测和相似度比较来探寻BERT在不fine-tune的情况下的信息检索和推荐能力。

结论:

  1. BERT在其参数中存储了关于书籍、电影和音乐内容的知识;
  2. 基于content的知识多于基于collaborative的知识;
  3. 在面对有对抗数据的对话数据上表现不理想
    在这里插入图片描述

第一个任务:MLM(掩码语言模型)

目标:生成item(电影)的流派
形式:完形填空,prompt,如:Pulp Fiction is a movie of the ___ genre.

第二个任务:推荐

目标:推荐item
形式:SIM,下一句预测,prompt,如:If you liked Pulp Fiction [SEP] you will also like Reservoi Dogs的分数要比If you liked Pulp Fiction [SEP] you will also like To All the Boys I’ve Loved Before

第三个任务:搜索

目标:搜索target item
形式:SIM和下一句预测

对于问题1:How much knowledg do off-the-shelf BERT models store in their parameters about item to recommend? 的结论:

  1. BERT既包含content的知识,也包含collaborative的知识。在任务一上top-5 acc为30%~50%(针对不同的domain);任务三在二选一的检索上有80%的准确率;当候选集只有两个的时候,任务二的准确率为60%。
  2. BERT基于content的知识多于基于collaborative的知识。
  3. The NSP is an important pre-training objective for the searc and recommendation probing tasks, improving the effectiveness over not using the NSP head by up to 58%(???)
  4. BERT对于搜索和推荐探针的有效性随着探针中候选对象数量的增加而显著下降,特别是对于基于协作的知识(即在第一个位置的回忆减少了35%)。(???)

对于问题2:*将会话推荐的额外知识注入BERT的有效方式是什么?*的结论

  1. 微调的BERT在区分相关响应和不相关响应方面非常有效,与下游任务的baseline相比,NDCG@10提升了36%;
  2. 当面对敌对产生的消极候选人推荐随机项目时,BERT的有效性显著降低(从0.81NDCG@10降至0.06);
  3. 在微调过程中通过多任务学习注入基于内容和基于协作的知识,可以提高会话推荐。

方法论

三种Probing tasks:genre,search,recommendation
一种fine-tuning task:对话推荐

Genre Probes(MLM)

三种Prompt形式:

  1. TP-NoTitle:不提供item,只提供item所在的域。如:“It is a movie of the [MASK] genre.”
  2. TP-Title:既提供item,又提供item所在的域。如:“Pulp Fiction is a [MASK] movie.”
  3. TP-TitleGenre:提供item标题,领域以及一个额外的短语“of the genre”,表明我们正在寻找项目的类型。如:“Pulp Fiction is a movie of the [MASK] genre .”
Recommendation and Search Probes(SIM和NSP)

在这里插入图片描述

Probe Based on Similarity (SIM)

两部分点乘:
在这里插入图片描述

Probe Based on Next Sentence Prediction Head(NSP)

在这里插入图片描述

下游任务:对话推荐

在这里插入图片描述
FFN是二分类线性层

实验结果

在这里插入图片描述
从TP-NoTitle可以看出BEET对于不同领域有学到相应的知识,比如book领域-》fantasy;movie领域-》action;music领域-》rock
TP-Title也能学到知识,按由于没有“genre”的限制,可能会对应其他相关的word;
TP-TitleGenre能增强TP-NoTitle的结果

在这里插入图片描述
在搜索和推荐方面BERT也是有作用的,NSP的作用会比SIM大-》进而体现了BERT NSP的任务的重要性(这点与Roberta正好相反)

在这里插入图片描述
上述结果体现了BERT在候选集过大时表现不会很好

将BERT的参数知识用于对话推荐(fine-tuning、二分类检索式)

样本构造:
在这里插入图片描述
在这里插入图片描述

对抗性数据的失败表明,BERT不能成功地区分相关和非相关的项目,只是使用语言线索来寻找相关的答案。

这篇关于论文笔记What does BERT know about books, movies and music Probing BERT for Conversational Recommendation的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/782499

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi