Leveraging Implicit Relative Labeling-Importance Information for Effective Multi-Label Learning

本文主要是介绍Leveraging Implicit Relative Labeling-Importance Information for Effective Multi-Label Learning,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Leveraging Implicit Relative Labeling-Importance Information for Effective Multi-Label Learning

 

论文大纲:

  1. 背景
  2. 介绍RELIAB(相对标记重要性感知多标签学习)方法
  3. 实验分析
  4. 总结和未来的问题

 

1、背景:

       多标签学习处理的是一个由单个实例表示的训练实例,同时又与多个类标签相关联,并且其任务是训练一个预测模型,该模型可以为未有标签的实例分配一组合适的标签。现有的方法都采用所有的标签重要性是一样的假设,即所有相关的标签都被认为与训练实例相关,而它们在描述其语义时的相对重要性没有区别。尽管如此,这种常见的假设并不能反映出每个相关标签的重要性程度通常是不同的,尽管重要性信息不能直接从训练实例中获取。在本文中,我们利用多重标记(RLI)来归纳隐含的预测信息,有助于证明该模型的相对重要性。具体地说,RLI度被形式化为标签空间上的多项式分布,可以通过全局标签传播过程或局部k近邻重构来估计。相应地,用估计的RLI度拟合模型输出,结合多标签经验损失正则化,得到多标签预测模型。大量的实验清楚地证明了利用隐含的RLI信息是有效的实现多标签学习的有利策略。

 

2、RELIAB方法介绍:

2.1标签相对重要性程度:

      表是标签相对重要性的程度,其中yl Y(实例相关标签的集合)x表示实例,并且标签相对重要性程度只能从被给的多标签训练集中得到。

2.2对标签相对重要性程度的评估:

  对标签相对重要性程度的评估简单有效的模型是全局标签传播过程或局部k近邻重建。

2.2.1 全局标签传播过程:

 

2.2.2 局部k近邻重建:

gi=


2.3 The pseudo-code of RELIAB

3、实验分析

 

|S|:样本数量

dim(S):特征数量

L(S):标签类的数量

F(S):各类特征类

LCard(S):标签基数

LDen(S):标签密度

DL(S):不同的标签集

PDL(S): 不同标签集的比例

 

 

 

 

 

 
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

这些结果表明,RELIAB适用于多标签实例中相关标签具有内在相对标签重要性的问题。

 

4、总结和未来的问题

现有的方法通过假设相同的标签重要性从多个标签示例中学习,其中每个相关标签对学习过程的贡献是相等的。在这篇论文中,我们对我们先前的研究[22]进行了扩展,它利用了从训练示例中获得的隐式RLI信息来进行模型归纳。因此,我们提出了两种简单而有效的估计RLI度的策略,并进一步利用这些策略来建立具有经验损失正则化的多标签预测模型。比较研究验证了所提出的方法估计的RLI信息的质量,以及利用它们进行有效的多标签学习的好处。在未来,除了标签传播和knearest邻域技术外,探索其他的隐式RLI信息估计方法是很有意义的。此外,还需要进一步研究依赖于具有基本真实RLI信息的数据集在更高数量的类标签上估计RLI度的质量。

 

 

 

 

 

 

 

这篇关于Leveraging Implicit Relative Labeling-Importance Information for Effective Multi-Label Learning的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/241648

相关文章

CK_Label_V31

CK_Label_v31(电池供电版) 产品型号 CK_Label_v31 尺寸 68.8*30*13.3mm 按键 1 指示灯 1 RGB灯 外观颜色 白色 供电方式 纽扣电池组2200mAh(CR2477*2),可更换电池 通信方式 无线通信 合规认证 CE, RoHS 工作温度 0-50℃ 工作频段 8

Deep Learning复习笔记0

Key Concept: Embedding: learned dense, continuous, low-dimensional representations of object 【将难以表示的对象(如图片,文本等)用连续的低维度的方式表示】 RNN: Recurrent Neural Network -> for processing sequential data (time se

多头注意力机制(Multi-Head Attention)

文章目录 多头注意力机制的作用多头注意力机制的工作原理为什么使用多头注意力机制?代码示例 多头注意力机制(Multi-Head Attention)是Transformer架构中的一个核心组件。它在机器翻译、自然语言处理(NLP)等领域取得了显著的成功。多头注意力机制的引入是为了增强模型的能力,使其能够从不同的角度关注输入序列的不同部分,从而捕捉更多层次的信息。 多头注意力机

【C++11 之新增容器 array、foward_list、tuple、unordered_(multi)map/set】应知应会

C++11 标准中新增了多个容器,这些容器为 C++ 程序员提供了更多的选择,以满足不同的编程需求。以下是对这些新容器的介绍和使用案例: std::array 介绍: std::array 是一个固定大小的数组容器,它在栈上分配内存,并提供了类似于标准库容器的接口。它提供了更好的类型安全性和范围检查,同时保持了与原生数组相似的性能。std::array 的大小必须在编译时确定,并且不能更改。

Elasticsearch java API (10)Multi Get API

Multi Get API编辑 多让API允许基于他们得到的文档列表 index, type和 id: MultiGetResponse multiGetItemResponses = client.prepareMultiGet().add("twitter", "tweet", "1") // <1> .add("twitter", "tweet

GIM: Learning Generalizable Image Matcher From Internet Videos

【引用格式】:Shen X, Yin W, Müller M, et al. GIM: Learning Generalizable Image Matcher From Internet Videos[C]//The Twelfth International Conference on Learning Representations. 2023. 【网址】:https://arxiv.or

越复杂的CoT越有效吗?Complexity-Based Prompting for Multi-step Reasoning

Complexity-Based Prompting for Multi-step Reasoning 论文:https://openreview.net/pdf?id=yf1icZHC-l9 Github:https://github.com/FranxYao/chain-of-thought-hub 发表位置:ICLR 2023 Complexity-Based Prompting for

springcloud config报错NoSuchLabelException: No such label: main

目录 一、问题描述二、解决方法 一、问题描述 Spring Cloud Config Server 编译报错:NoSuchLabelException: No such label: main org.springframework.cloud.config.server.environment.NoSuchLabelException: No such label: ma

More Effective C++ 条款04:非必要不提供默认构造函数

所谓默认构造函数,就是不给任何变量,就可以给调用(无参或参数为默认值)。 基本准则:凡可以“合理地从无到有生成对象”的类,都应该包含默认构造函数,而“必须有某些外来信息才能生成对象”的类,则不必拥有默认构造函数。 但如果类缺乏一个默认构造函数,当你使用这个类时便会有某些限制。 考虑下面这个针对公司仪器而设计的class,在其中,仪器识别码是一定得有的一个构造参数: class Equipm

5.How Fast Should You Be When Learning?(你应该用多快的速度学习? (一))

Normally when I talk about learing quickly, I’m using speed as a synonym for efficiency.Use more effective methods and you’ll learn more in less time.All else being equal, that means you’re learing fa