基于Bert的文本精排算法

2024-02-15 22:30
文章标签 算法 文本 bert 精排

本文主要是介绍基于Bert的文本精排算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

精排算法在许多场景中都有应用,如文本检索、对话问答、推荐等场景中,使用匹配算法首先召回了一系列相似的样本集合,然后需要对这些召回的样本进行精准的排序,得到最优的序列返回给用户。

对于faq问答系统,使用文本匹配和es查询出召回样本集合后,需要返回top1的结果作为最相似问题返回,输入数据为query以及候选doc,输出为相似的百分比。

一、数据预处理

首先需要将原始的问题,回答的数据构造成文本匹配的任务,即{问题,相似问题1,相似问题2,无关问题1,无关问题2.。。。},标签则为{1,1,0,0....},如果有给匹配的相关性进行等级标注,标签也可改为相应的相关性等级。

在构造数据的时候如果没有预先打标签怎么办,可以采用随机负采样的方法,把原始问答对中,其他问题随机采样成无关问题,构成弱标签的数据集。

构造完数据集后,需要再将其转换成bert模型的输入格式,输入格式如下:

[CLS]sentence1[SEP]sentence2[SEP]

    def encode_v2(self, text_1, text_2):'''交互式文本匹配编码'''_tokenizer = tokenization.FullTokenizer(self.config['vocab_path'], do_lower_case=True)if isinstance(text_1, str):split_tokens_1 = _tokenizer.tokenize(text_1)else:split_tokens_1 = text_1if isinstance(text_2, str):split_tokens_2 = _tokenizer.tokenize(text_2)else:split_tokens_2 = text_1if len(split_tokens_1) + len(split_tokens_2) > self.config['seq_len']:split_tokens_2 = split_tokens_2[:self.config['seq_len'] - len(split_tokens_1)]sequence_length = self.config['seq_len']else:sequence_length = len(split_tokens_1) + len(split_tokens_2)while (len(split_tokens_1) + len(split_tokens_2) < self.config['seq_len']):split_tokens_2.append("[PAD]")tokens = []segment_ids = []tokens.append("[CLS]")segment_ids.append(0)for i in split_tokens_1:if i not in _tokenizer.vocab:tokens.append("[UNK]")print(i)continuetokens.append(i)segment_ids.append(0)tokens.append("[SEP]")segment_ids.append(0)for i in split_tokens_2:if i not in _tokenizer.vocab:tokens.append("[UNK]")print(i)continuetokens.append(i)segment_ids.append(1)tokens.append("[SEP]")segment_ids.append(1)word_ids = _tokenizer.convert_tokens_to_ids(tokens)word_mask = []for i in word_ids:if i == "[PAD]":word_mask.append(0)else:word_mask.append(1)return word_ids, segment_ids, word_mask, sequence_length

二、NDCG损失计算

如何定义损失函数呢?原理上说,模型是一个文本分类的任务,目标是把两个句子的相关性分类到对应的类别上。然而我们的精排算法并不是仅仅为了计算句子的相关性,而是需要将一个句子候选集根据相关性排序,从而预测出最优的排序序列。因此损失函数是计算文本列表的排序损失,常见的损失函数有几种,在推荐系统中经常用到,就不详细展开说了,目前用到的是NDCG(Normalized Discounted Cumulative Gain)损失,计算步骤分为以下几步:

comulative gain(CG)表示对topK个相关性的加和:CG@k = \sum r(i),r表示相关性的数值

discounted cumulative gain(DCG)引入位置特征,排前面的元素增益较高,DCG@k = \sum_{i}^{K}\frac{2^{r(i))}-1}{log{_{2}}^{i+1}}

若对于排序列表来说最佳排序为{d1,d2,d3,....,dk},该序列的DCG值为IDCG=DCGmax@K

那么NDCG@K = \frac{DCG@K}{IDCG@K}

计算完这些数值后loss采用lambda loss

Loss = \sum _{r(i)>r(j)}\ |\Delta NDCG|log{_{2}}^{(1+e^{-\sigma (s_{i}-s_{j})})}

对于代码来说就是矩阵的计算,代码如下:

    def lambda_rank_loss(self, scores, labels):'''lambda rank损失'''#delta_lambda计算rank = tf.range(1., tf.cast(self.config['num_samples'], dtype=tf.float32) + 1)rank = tf.tile(rank, [self.config['batch_size']])rank = tf.reshape(rank, tf.shape(labels))rel = 2 ** labels - 1sorted_label = tf.sort(labels, direction='DESCENDING')sorted_rel = 2 ** sorted_label - 1cg_discount = tf.math.log(1. + rank)dcg_m = rel / cg_discountdcg = tf.reduce_sum(dcg_m)stale_ij = dcg_mnew_ij = rel / tf.transpose(cg_discount, perm=[0, 2, 1])stale_ji = tf.transpose(stale_ij, perm=[0, 2, 1])new_ji = tf.transpose(new_ij, perm=[0, 2, 1])#new dcgdcg_new = dcg - stale_ij + new_ij - stale_ji + new_ji#delta dcgdcg_max = tf.reduce_sum(sorted_rel / cg_discount)ndcg_delta = tf.abs(dcg_new - dcg) / dcg_max#s_i_minus_s_j = scores - tf.transpose(scores, perm=[0, 2, 1])#上三角矩阵mask1 = tf.linalg.band_part(ndcg_delta, 0, -1)#下三角矩阵mask2 = tf.linalg.band_part(s_i_minus_s_j, -1, 0)_loss = mask1 * tf.transpose(mask2, perm=[0, 2, 1])loss = tf.reduce_sum(_loss)return loss

三、模型训练

将Bert计算出的logits当作相关性r,带入到上面的loss中训练就行了,在实际过程中,还有一个对相关性大小的界定,模型输出的r为0-1之间的数值,阈值定在多少,相关性为1,会影响最终模型的效果,因此需要在测试集上进行探索。

四、总结

以上就是对bert模型精排算法的探索与实践,总的来说大体框架还是没太大的变化,主要是数据集构造和loss函数的选择,数学公式还是有一点复杂,如果数据集质量不够好还是不推荐使用,因为最终效果指标不好界定,top1和top2区别也不一定太大,收益不是特别明显。

这篇关于基于Bert的文本精排算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!


原文地址:https://blog.csdn.net/donruo/article/details/125538849
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.chinasem.cn/article/712724

相关文章

springboot+dubbo实现时间轮算法

《springboot+dubbo实现时间轮算法》时间轮是一种高效利用线程资源进行批量化调度的算法,本文主要介绍了springboot+dubbo实现时间轮算法,文中通过示例代码介绍的非常详细,对大家... 目录前言一、参数说明二、具体实现1、HashedwheelTimer2、createWheel3、n

SpringBoot实现MD5加盐算法的示例代码

《SpringBoot实现MD5加盐算法的示例代码》加盐算法是一种用于增强密码安全性的技术,本文主要介绍了SpringBoot实现MD5加盐算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习... 目录一、什么是加盐算法二、如何实现加盐算法2.1 加盐算法代码实现2.2 注册页面中进行密码加盐2.

Java时间轮调度算法的代码实现

《Java时间轮调度算法的代码实现》时间轮是一种高效的定时调度算法,主要用于管理延时任务或周期性任务,它通过一个环形数组(时间轮)和指针来实现,将大量定时任务分摊到固定的时间槽中,极大地降低了时间复杂... 目录1、简述2、时间轮的原理3. 时间轮的实现步骤3.1 定义时间槽3.2 定义时间轮3.3 使用时

使用Python实现文本转语音(TTS)并播放音频

《使用Python实现文本转语音(TTS)并播放音频》在开发涉及语音交互或需要语音提示的应用时,文本转语音(TTS)技术是一个非常实用的工具,下面我们来看看如何使用gTTS和playsound库将文本... 目录什么是 gTTS 和 playsound安装依赖库实现步骤 1. 导入库2. 定义文本和语言 3

Python实现常用文本内容提取

《Python实现常用文本内容提取》在日常工作和学习中,我们经常需要从PDF、Word文档中提取文本,本文将介绍如何使用Python编写一个文本内容提取工具,有需要的小伙伴可以参考下... 目录一、引言二、文本内容提取的原理三、文本内容提取的设计四、文本内容提取的实现五、完整代码示例一、引言在日常工作和学

Pytorch微调BERT实现命名实体识别

《Pytorch微调BERT实现命名实体识别》命名实体识别(NER)是自然语言处理(NLP)中的一项关键任务,它涉及识别和分类文本中的关键实体,BERT是一种强大的语言表示模型,在各种NLP任务中显著... 目录环境准备加载预训练BERT模型准备数据集标记与对齐微调 BERT最后总结环境准备在继续之前,确

Java实现将Markdown转换为纯文本

《Java实现将Markdown转换为纯文本》这篇文章主要为大家详细介绍了两种在Java中实现Markdown转纯文本的主流方法,文中的示例代码讲解详细,大家可以根据需求选择适合的方案... 目录方法一:使用正则表达式(轻量级方案)方法二:使用 Flexmark-Java 库(专业方案)1. 添加依赖(Ma

如何通过Golang的container/list实现LRU缓存算法

《如何通过Golang的container/list实现LRU缓存算法》文章介绍了Go语言中container/list包实现的双向链表,并探讨了如何使用链表实现LRU缓存,LRU缓存通过维护一个双向... 目录力扣:146. LRU 缓存主要结构 List 和 Element常用方法1. 初始化链表2.

golang字符串匹配算法解读

《golang字符串匹配算法解读》文章介绍了字符串匹配算法的原理,特别是Knuth-Morris-Pratt(KMP)算法,该算法通过构建模式串的前缀表来减少匹配时的不必要的字符比较,从而提高效率,在... 目录简介KMP实现代码总结简介字符串匹配算法主要用于在一个较长的文本串中查找一个较短的字符串(称为

Linux使用cut进行文本提取的操作方法

《Linux使用cut进行文本提取的操作方法》Linux中的cut命令是一个命令行实用程序,用于从文件或标准输入中提取文本行的部分,本文给大家介绍了Linux使用cut进行文本提取的操作方法,文中有详... 目录简介基础语法常用选项范围选择示例用法-f:字段选择-d:分隔符-c:字符选择-b:字节选择--c