随机性偏差模型(DFR)介绍

2024-02-26 14:59

本文主要是介绍随机性偏差模型(DFR)介绍,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

第一次翻译文章,可能有不少错误,但是希望可以对原文阅读起到帮助。


随机性偏差模型 (DFR) 是信息检索的最早模型之一,哈特的 2-泊松索引-模型 [1] 的最早模式之一。2-泊松模型基于在一系列的具有价值的文档所提供的词语,这些词语在相关文档中发生的概率比在不相关文档中发生的概率更高。

另一方面,有一些词语不包含于关键的文档,所以他们的频率遵循随机分布,是单一的泊松模型。哈特的模型中,首先作为检索模型由Robertson, Van Rijsbergen and Porter 探讨[4]。先后它由Robertson和Walker [3] 与标准概率模型结合,催生 了一系列BMs IR 模型 ,其中有知名的 BM25 这是霍加狓系统(Okapi system)的基础。
DFR 模型通过实例化框架的三个组成部分︰ 选择基本随机性模型、 应用第一次的正常化、 规范化词的频率。

基础随机模型(Basic Randomness Models)

DFR模型基于这样一个假设:“在相关文档中词频的频率在集合中更加发散,在文档d中词语t携带的信息更多”。换而言之,在包含随机模型M的文档中,d词语的重要程度与它出现的频率反相关。

这里写图片描述公式(1)

这里的下标 M 代表用来计算概率的随机性模型的类型。为了选择合适的模型 M 的随机性,我们可以使用不同的罐子模型( urn models)。IR 被视为一个随机的过程,它使用随机从罐子里面取出图纸的模型或等价地随机放置彩球到罐子里面的模型。在这里我们使用文档代替罐子,使用词语代替彩球。每个词语,在该罐子一些多样性的发生是由于一些相关的词或短语被称为这个词的标记。现在有很多选择模型M的方法,这些都可以衍生基础的DFR模型。基础的模型由下表导出:

这里写图片描述

如果模型M是二项式分布,基础的模型记做p,并且计算的值如下:
这里写图片描述公式(2)

其中参数含义如下:

  • TF 是词语 t 在集合中的频率
  • tf 是词语 t 在文档 d 中的频率
  • N 是集合中文档中的数量
  • p=1/N 并且 q=1-p

相同的如果模型M是几何分布,基础模型记做G,并且计算的值如下:
这里写图片描述公式(3)

其中参数含义如下:

  • λ=F/N

第一次的正常化(First Normalisation)

当文档中没有出现罕见的词,然后它是文档的信息的概率已经几乎为零的。相反地,如果一个罕见的术语在文档中有许多发生那么它必须是高概率 (几乎必然) 为文档所描述的主题。同样对 Ponte 和Croft的 [2] 的语言模型,我们在 DFR 模型中包括危险的因素。如果在文档中的词频高然而不包含文档信息的风险很小。在这种情况下公式 (1) 给出了很高的值,但风险降至最低也有提供小信息增益的负面影响。因此,而不是使用公式 (1) 所提供的全部重量,我们调整或光滑公式 (1) 的权重,通过考虑只有部分信息量是通过词语获得的︰
这里写图片描述公式(4)

词语在有价值的集合(elite set)中出现的越多,词语更少依赖于随机性,因此更小的可能性 Prisk 为:
这里写图片描述公式(5)

我们使用两种模型来计算信息的增益通过在文档中的词语:拉普拉斯L模型( Laplace L model)和两种伯努力过程的比值 B(ratio of two Bernoulli’s processes B)。
这里写图片描述公式(6)

其中参数含义:

  • df 是指含有词语的文档数目
  • TF 是词语 t 在集合中的频率
  • tf 是词语 t 在文档 d 中的频率

词频率正常化(Term Frequency Normalisation)

在使用公式(4)前,文档的长度 dl 被规范到标准的长度 sl。因此,词频 tf 也被重新计算引入标准文档长度。
这里写图片描述公式(7)

一个更加复杂的公式,如下:
这里写图片描述公式(8)

DFR 模型得出应用从生成的公式 (4), 使用基本的 DFR 模型 (如公式 (2) 或 (3)) ,结合信息增益 (如公式 6) 模型和实现正常化词频率 (如公式 (7) 或公式 (8))。

领域(fileds)

DFR 可以描述词语以各种不同的方式在不同领域发生的重要性︰

  1. 每个字段的正常化︰词语在不同领域中出现的频率 通过在相应领域的代表字段长度统计实现正常化。这是表现为 PL2F 加权模型。可以使用通用的 PerFieldNormWeightingModel 模型生成其他每个字段正常化模型。
  2. 多项式:来自不同领域的频率被参照在他们偏离预期的词语出现在这一领域的随机性。ML2 和 MDL2 模型执行此加权。

邻近(Proximity)

接近度可以通过 DFR 处理,通过考虑一对查询词语在预定义的大小窗口内出现次数。尤其是,DFRDependenceScoreModifier (DSM) 实现的 pBiL 和 pBiL2 的模型,测量相对于文档的长度的随机性,而不是对语料中的统计数据的随机性。

DFR模型和交叉熵

可以用交叉熵的概念对增益风险生成公式 (4) 进行不同的解读。香农在20 世纪 40 年代发表的通信的数学理论 [5] 确定最小平均码字长度是关于源词的概率值的熵。这一结果是在无声的编码定理(Noiseless Coding Theorem)的名义下被认知。无声一词是指在传输词的过程中不可能出现产生错误的假设。然而它可能导致来源不同的相同信息都可用。在一般情况下每个源产生不用的编码。在这种情况下,我们可以使用交叉熵来做两种来源比较的证据。当观测的两个对像返回相同的概率密度函数,并且在这种情况下交叉熵恰好与香农熵交叉熵减至最低。

我们拥有两个测试的随机性:第一个测试是 Prisk,和词语在有价值的文档中的分布有关,第二个是 ProbM,和文档在整个集合中的重要性有关。初次分配可以被视为新来源的的词语分布,并且在集合中词语的编码伴随着词语的分布可以被认为是初次的来源。两个概率分布的交叉熵的定义如下:
这里写图片描述公式(9)

公式(9)是公式(4)在DFR模型中的实际联系。DFR模型可以等同地定义为两个概率测量的证据是两个不同的来源的随机性的量的发散。

想要知道更多有关于随机性框架的分布(Divergence from Randomness framework),你可以查到Gianni Amati或Amati和Van Rijsbergen的博士论文:Probabilistic models of information retrieval based on measuring divergence from randomness, TOIS 20(4):357-389, 2002.

[1] S.P. Harter. A probabilistic approach to automatic keyword indexing. PhD thesis, Graduate Library, The University of Chicago, Thesis No. T25146, 1974.
[2] J. Ponte and B. Croft. A Language Modeling Approach in Information Retrieval. In The 21st ACM SIGIR Conference on Research and Development in Information Retrieval (Melbourne, Australia, 1998), B. Croft, A.Moffat, and C.J. van Rijsbergen, Eds., pp.275-281.
[3] S.E. Robertson and S. Walker. Some simple approximations to the 2-Poisson Model for Probabilistic Weighted Retrieval. In Proceedings of the Seventeenth Annual International ACM-SIGIR Conference on Research and Development in Information Retrieval (Dublin, Ireland, June 1994), Springer-Verlag, pp. 232-241.
[4] S.E. Robertson, C.J. van Risjbergen and M. Porter. Probabilistic models of indexing and searching. In Information retrieval Research, S.E. Robertson, C.J. van Risjbergen and P. Williams, Eds. Butterworths, 1981, ch. 4, pp. 35-56.
[5] C. Shannon and W. Weaver. The Mathematical Theory of Communication. University of Illinois Press, Urbana, Illinois, 1949.
[6] B. He and I. Ounis. A study of parameter tuning for term frequency normalization, in Proceedings of the twelfth international conference on Information and knowledge management, New Orleans, LA, USA, 2003.
[7] B. He and I. Ounis. Term Frequency Normalisation Tuning for BM25 and DFR Model, in Proceedings of the 27th European Conference on Information Retrieval (ECIR’05), 2005.
[8] V. Plachouras and I. Ounis. Usefulness of Hyperlink Structure for Web Information Retrieval. In Proceedings of ACM SIGIR 2004.
[9] V. Plachouras, B. He and I. Ounis. University of Glasgow in TREC 2004: experiments in Web, Robust and Terabyte tracks with Terrier. In Proceedings of the 13th Text REtrieval Conference (TREC 2004), 2004.

这篇关于随机性偏差模型(DFR)介绍的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/749245

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言