基于Bert的文本精排算法

2024-02-15 22:30
文章标签 算法 文本 bert 精排

本文主要是介绍基于Bert的文本精排算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

精排算法在许多场景中都有应用,如文本检索、对话问答、推荐等场景中,使用匹配算法首先召回了一系列相似的样本集合,然后需要对这些召回的样本进行精准的排序,得到最优的序列返回给用户。

对于faq问答系统,使用文本匹配和es查询出召回样本集合后,需要返回top1的结果作为最相似问题返回,输入数据为query以及候选doc,输出为相似的百分比。

一、数据预处理

首先需要将原始的问题,回答的数据构造成文本匹配的任务,即{问题,相似问题1,相似问题2,无关问题1,无关问题2.。。。},标签则为{1,1,0,0....},如果有给匹配的相关性进行等级标注,标签也可改为相应的相关性等级。

在构造数据的时候如果没有预先打标签怎么办,可以采用随机负采样的方法,把原始问答对中,其他问题随机采样成无关问题,构成弱标签的数据集。

构造完数据集后,需要再将其转换成bert模型的输入格式,输入格式如下:

[CLS]sentence1[SEP]sentence2[SEP]

    def encode_v2(self, text_1, text_2):'''交互式文本匹配编码'''_tokenizer = tokenization.FullTokenizer(self.config['vocab_path'], do_lower_case=True)if isinstance(text_1, str):split_tokens_1 = _tokenizer.tokenize(text_1)else:split_tokens_1 = text_1if isinstance(text_2, str):split_tokens_2 = _tokenizer.tokenize(text_2)else:split_tokens_2 = text_1if len(split_tokens_1) + len(split_tokens_2) > self.config['seq_len']:split_tokens_2 = split_tokens_2[:self.config['seq_len'] - len(split_tokens_1)]sequence_length = self.config['seq_len']else:sequence_length = len(split_tokens_1) + len(split_tokens_2)while (len(split_tokens_1) + len(split_tokens_2) < self.config['seq_len']):split_tokens_2.append("[PAD]")tokens = []segment_ids = []tokens.append("[CLS]")segment_ids.append(0)for i in split_tokens_1:if i not in _tokenizer.vocab:tokens.append("[UNK]")print(i)continuetokens.append(i)segment_ids.append(0)tokens.append("[SEP]")segment_ids.append(0)for i in split_tokens_2:if i not in _tokenizer.vocab:tokens.append("[UNK]")print(i)continuetokens.append(i)segment_ids.append(1)tokens.append("[SEP]")segment_ids.append(1)word_ids = _tokenizer.convert_tokens_to_ids(tokens)word_mask = []for i in word_ids:if i == "[PAD]":word_mask.append(0)else:word_mask.append(1)return word_ids, segment_ids, word_mask, sequence_length

二、NDCG损失计算

如何定义损失函数呢?原理上说,模型是一个文本分类的任务,目标是把两个句子的相关性分类到对应的类别上。然而我们的精排算法并不是仅仅为了计算句子的相关性,而是需要将一个句子候选集根据相关性排序,从而预测出最优的排序序列。因此损失函数是计算文本列表的排序损失,常见的损失函数有几种,在推荐系统中经常用到,就不详细展开说了,目前用到的是NDCG(Normalized Discounted Cumulative Gain)损失,计算步骤分为以下几步:

comulative gain(CG)表示对topK个相关性的加和:CG@k = \sum r(i),r表示相关性的数值

discounted cumulative gain(DCG)引入位置特征,排前面的元素增益较高,DCG@k = \sum_{i}^{K}\frac{2^{r(i))}-1}{log{_{2}}^{i+1}}

若对于排序列表来说最佳排序为{d1,d2,d3,....,dk},该序列的DCG值为IDCG=DCGmax@K

那么NDCG@K = \frac{DCG@K}{IDCG@K}

计算完这些数值后loss采用lambda loss

Loss = \sum _{r(i)>r(j)}\ |\Delta NDCG|log{_{2}}^{(1+e^{-\sigma (s_{i}-s_{j})})}

对于代码来说就是矩阵的计算,代码如下:

    def lambda_rank_loss(self, scores, labels):'''lambda rank损失'''#delta_lambda计算rank = tf.range(1., tf.cast(self.config['num_samples'], dtype=tf.float32) + 1)rank = tf.tile(rank, [self.config['batch_size']])rank = tf.reshape(rank, tf.shape(labels))rel = 2 ** labels - 1sorted_label = tf.sort(labels, direction='DESCENDING')sorted_rel = 2 ** sorted_label - 1cg_discount = tf.math.log(1. + rank)dcg_m = rel / cg_discountdcg = tf.reduce_sum(dcg_m)stale_ij = dcg_mnew_ij = rel / tf.transpose(cg_discount, perm=[0, 2, 1])stale_ji = tf.transpose(stale_ij, perm=[0, 2, 1])new_ji = tf.transpose(new_ij, perm=[0, 2, 1])#new dcgdcg_new = dcg - stale_ij + new_ij - stale_ji + new_ji#delta dcgdcg_max = tf.reduce_sum(sorted_rel / cg_discount)ndcg_delta = tf.abs(dcg_new - dcg) / dcg_max#s_i_minus_s_j = scores - tf.transpose(scores, perm=[0, 2, 1])#上三角矩阵mask1 = tf.linalg.band_part(ndcg_delta, 0, -1)#下三角矩阵mask2 = tf.linalg.band_part(s_i_minus_s_j, -1, 0)_loss = mask1 * tf.transpose(mask2, perm=[0, 2, 1])loss = tf.reduce_sum(_loss)return loss

三、模型训练

将Bert计算出的logits当作相关性r,带入到上面的loss中训练就行了,在实际过程中,还有一个对相关性大小的界定,模型输出的r为0-1之间的数值,阈值定在多少,相关性为1,会影响最终模型的效果,因此需要在测试集上进行探索。

四、总结

以上就是对bert模型精排算法的探索与实践,总的来说大体框架还是没太大的变化,主要是数据集构造和loss函数的选择,数学公式还是有一点复杂,如果数据集质量不够好还是不推荐使用,因为最终效果指标不好界定,top1和top2区别也不一定太大,收益不是特别明显。

这篇关于基于Bert的文本精排算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/712724

相关文章

不懂推荐算法也能设计推荐系统

本文以商业化应用推荐为例,告诉我们不懂推荐算法的产品,也能从产品侧出发, 设计出一款不错的推荐系统。 相信很多新手产品,看到算法二字,多是懵圈的。 什么排序算法、最短路径等都是相对传统的算法(注:传统是指科班出身的产品都会接触过)。但对于推荐算法,多数产品对着网上搜到的资源,都会无从下手。特别当某些推荐算法 和 “AI”扯上关系后,更是加大了理解的难度。 但,不了解推荐算法,就无法做推荐系

康拓展开(hash算法中会用到)

康拓展开是一个全排列到一个自然数的双射(也就是某个全排列与某个自然数一一对应) 公式: X=a[n]*(n-1)!+a[n-1]*(n-2)!+...+a[i]*(i-1)!+...+a[1]*0! 其中,a[i]为整数,并且0<=a[i]<i,1<=i<=n。(a[i]在不同应用中的含义不同); 典型应用: 计算当前排列在所有由小到大全排列中的顺序,也就是说求当前排列是第

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

综合安防管理平台LntonAIServer视频监控汇聚抖动检测算法优势

LntonAIServer视频质量诊断功能中的抖动检测是一个专门针对视频稳定性进行分析的功能。抖动通常是指视频帧之间的不必要运动,这种运动可能是由于摄像机的移动、传输中的错误或编解码问题导致的。抖动检测对于确保视频内容的平滑性和观看体验至关重要。 优势 1. 提高图像质量 - 清晰度提升:减少抖动,提高图像的清晰度和细节表现力,使得监控画面更加真实可信。 - 细节增强:在低光条件下,抖

【数据结构】——原来排序算法搞懂这些就行,轻松拿捏

前言:快速排序的实现最重要的是找基准值,下面让我们来了解如何实现找基准值 基准值的注释:在快排的过程中,每一次我们要取一个元素作为枢纽值,以这个数字来将序列划分为两部分。 在此我们采用三数取中法,也就是取左端、中间、右端三个数,然后进行排序,将中间数作为枢纽值。 快速排序实现主框架: //快速排序 void QuickSort(int* arr, int left, int rig

poj 3974 and hdu 3068 最长回文串的O(n)解法(Manacher算法)

求一段字符串中的最长回文串。 因为数据量比较大,用原来的O(n^2)会爆。 小白上的O(n^2)解法代码:TLE啦~ #include<stdio.h>#include<string.h>const int Maxn = 1000000;char s[Maxn];int main(){char e[] = {"END"};while(scanf("%s", s) != EO

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

dp算法练习题【8】

不同二叉搜索树 96. 不同的二叉搜索树 给你一个整数 n ,求恰由 n 个节点组成且节点值从 1 到 n 互不相同的 二叉搜索树 有多少种?返回满足题意的二叉搜索树的种数。 示例 1: 输入:n = 3输出:5 示例 2: 输入:n = 1输出:1 class Solution {public int numTrees(int n) {int[] dp = new int

Codeforces Round #240 (Div. 2) E分治算法探究1

Codeforces Round #240 (Div. 2) E  http://codeforces.com/contest/415/problem/E 2^n个数,每次操作将其分成2^q份,对于每一份内部的数进行翻转(逆序),每次操作完后输出操作后新序列的逆序对数。 图一:  划分子问题。 图二: 分而治之,=>  合并 。 图三: 回溯:

最大公因数:欧几里得算法

简述         求两个数字 m和n 的最大公因数,假设r是m%n的余数,只要n不等于0,就一直执行 m=n,n=r 举例 以18和12为例 m n r18 % 12 = 612 % 6 = 06 0所以最大公因数为:6 代码实现 #include<iostream>using namespace std;/