Large Scale Metric Learning from Equivalence Constraints (KISSME)

2023-11-21 19:40

本文主要是介绍Large Scale Metric Learning from Equivalence Constraints (KISSME),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一:介绍

现有的Mahalanobis度量学习方法很多是通过梯度下降来迭代更新M矩阵,监督程度较高(如需要所有样本标签的LMNN方法)和计算复杂(需要大量的迭代)对于样本数目日益增长的大规模数据集是很不友好的。作者从概率的观点,计算发生概率的最大似然比率来计算样本的马氏距离,无需进行昂贵的迭代运算,而且仅需要样本间yij=0或1 (即equivalence constraints)的监督信息,对于大规模数据集非常合适。作者在人脸识别、行人重识别、目标检测等任务的通用的benchmarks上进行了实验,证实了作者所提出方法的优良性能。

二:作者的方法 

如上图所示,H0表示xi,xj 不是同类,H1表示xi,xj 是同类。delta(xi,xj)就是xi,xj 不是同类的概率除以xi,xj 是同类的概率。显然,当delta(xi,xj)为一个较大的值时,说明H0为真,即xi,xj 不是同类。反之H1为真,即xi,xj 是同类。所以我们可以通过delta(xi,xj)这个函数来测量(xi,xj)样本特征间的距离。

如上图所示,为了不依赖于样本特征向量的分布空间,用两个样本特征间的差值xij = xi - xj来作为delta函数的变量。下面通过最大似然估计的方法,使得训练样本发生的概率最大,来求解p(xij|H0)和p(xij|H1)的参数theata0和theata1。

假设xi和xj同类和不同类时f(xij | theata0)和f(xij | theata0)均是高斯分布(这里的数学知识我不太明白,应该是研究生课程),根据最大似然估计原理,可得解如下:

其中: 

作者指出,高斯的最大似然估计结果等效于以最小二乘方式最小化与平均值的马氏距离。

求log后:

去除常数项后:

所以,整理后KISSME的最终形式为: 

其中 

因为xij为实对称矩阵,所以M^也是个实对称矩阵。通过特征值分析,将M^重新投影为半正定矩阵M(保证距离大于等于0)。 

三: 实验结果

在 LFW数据集上的实验结果如下两张图:

 

算法时间复杂度分析: 

 

可以看到,KISSME相比其他方法在时间复杂度上的优势能达到2个数量级以上。 

在人脸验证数据集PubFig上的实验结果:

 

在行人重识别数据集VIPeR上的实验结果: 

 

在目标检测数据集 LEAR ToyCars数据集上的结果:

 

四、结论

In this work we presented our KISS method to learn a distance metric from equivalence constraints. Based on a statistical inference perspective we provide a solution that is very efficient to obtain and effective in terms of generalization performance. To show the merit of our method we conducted several experiments on various challenging large-scale benchmarks, including LFW and PubFig. On all benchmarks we are able to match or slightly outperform state-of-the-art metric learning approaches, while being orders of magnitudes faster in training. On two datasets(VIPeR, ToyCars) we even outperform approaches especially tailored to these tasks.

这篇关于Large Scale Metric Learning from Equivalence Constraints (KISSME)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/404639

相关文章

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

[论文笔记]LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale

引言 今天带来第一篇量化论文LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale笔记。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 大语言模型已被广泛采用,但推理时需要大量的GPU内存。我们开发了一种Int8矩阵乘法的过程,用于Transformer中的前馈和注意力投影层,这可以将推理所需

简单的Q-learning|小明的一维世界(3)

简单的Q-learning|小明的一维世界(1) 简单的Q-learning|小明的一维世界(2) 一维的加速度世界 这个世界,小明只能控制自己的加速度,并且只能对加速度进行如下三种操作:增加1、减少1、或者不变。所以行动空间为: { u 1 = − 1 , u 2 = 0 , u 3 = 1 } \{u_1=-1, u_2=0, u_3=1\} {u1​=−1,u2​=0,u3​=1}

简单的Q-learning|小明的一维世界(2)

上篇介绍了小明的一维世界模型 、Q-learning的状态空间、行动空间、奖励函数、Q-table、Q table更新公式、以及从Q值导出策略的公式等。最后给出最简单的一维位置世界的Q-learning例子,从给出其状态空间、行动空间、以及稠密与稀疏两种奖励函数的设置方式。下面将继续深入,GO! 一维的速度世界 这个世界,小明只能控制自己的速度,并且只能对速度进行如下三种操作:增加1、减

Metric Matrice(nyoj545)

Metric Matrice 时间限制: 1000 ms  |  内存限制: 65535 KB 难度:1 描述 Given as input a square distance matrix, where a[i][j] is the distance between point i and point j, determine if the distance matrix is

高精度打表-Factoring Large Numbers

求斐波那契数,不打表的话会超时,打表的话普通的高精度开不出来那么大的数组,不如一个int存8位,特殊处理一下,具体看代码 #include<stdio.h>#include<string.h>#define MAX_SIZE 5005#define LEN 150#define to 100000000/*一个int存8位*/int num[MAX_SIZE][LEN];void

android xml之动画篇 alpha、scale、translate、rotate、set的属性及用法 和

1.简介 Android的补间动画TweenAnimation由四种类型组成:alpha、scale、translate、rotate,对应android官方文档地址:《Animation Resources》 逐帧动画 FrameAnimation(也称 Drawable Animation  ):animation-list alpha 渐变透明度动画效果 scale 渐变

[论文笔记]Making Large Language Models A Better Foundation For Dense Retrieval

引言 今天带来北京智源研究院(BAAI)团队带来的一篇关于如何微调LLM变成密集检索器的论文笔记——Making Large Language Models A Better Foundation For Dense Retrieval。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 密集检索需要学习具有区分性的文本嵌入,以表示查询和文档之间的语义关系。考虑到大语言模

Android AnimationDrawable资源 set[translate,alpha,scale,rotate]

本文内容摘自《疯狂Android讲义 第三版-李刚著作》 xml <?xml version="1.0" encoding="utf-8"?><set xmlns:android="http://schemas.android.com/apk/res/android"android:duration="1000"android:fillAfter="true"android:f

Anchor Alignment Metric来优化目标检测的标签分配和损失函数。

文章目录 背景假设情况任务和目标TaskAligned方法的应用1. **计算Anchor Alignment Metric**2. **动态样本分配**3. **调整损失函数** 示例总结 背景 假设我们在进行目标检测任务,并且使用了YOLOv8模型。我们希望通过TaskAligned方法来优化Anchor与目标的匹配程度,从而提升检测效果。 假设情况 图像: 一张包含