行人检索--Beyond triplet loss: a deep quadruplet network for person re-identification

本文主要是介绍行人检索--Beyond triplet loss: a deep quadruplet network for person re-identification,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Beyond triplet loss: a deep quadruplet network for person re-identification
CVPR2017
https://arxiv.org/abs/1704.01719

本文使用深度学习进行行人检索,侧重点主要在损失函数的改进,提出了 quadruplet loss 用于减小类内方差 和 增加类间方差

这里写图片描述

上图显示,在我们新的 quadruplet loss 作用下,对于训练数据的每个类别,我们减小了同类别方差,增加异类方差。

本文的网络结构:
这里写图片描述
上图红色部分是重点,加入了第二个类别的负样本。
这里的 positive pair negative pair negative pair2 三个损失函数计算值中 positive pair 是最小的。这么做减小了同类别方差 。
这里写图片描述

为了增加异类方差,这里我们设计了一个自动最大阈值采样策略,
Margin-based online hard negative mining
Thus the margin threshold is self-adaptive based on the two distributions of the trained model.
通过这个采样策略,使得我们的损失函数中边界阈值自适应得到

实验结果对比:
这里写图片描述

这篇关于行人检索--Beyond triplet loss: a deep quadruplet network for person re-identification的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/823844

相关文章

【机器学习】自然语言处理的新前沿:GPT-4与Beyond

📝个人主页:哈__ 期待您的关注  目录 🔥引言 背景介绍 文章目的 一、GPT-4简介 GPT-4概述 主要特性 局限性和挑战 二、自监督学习的新进展 自监督学习的原理 代表性模型和技术 三、少样本学习和零样本学习 少样本学习的挑战 先进方法 四、跨模态学习 跨模态学习的概念 代表性技术 应用场景 第五部分:可解释性和透明性 AI的可解释

Deep Learning复习笔记0

Key Concept: Embedding: learned dense, continuous, low-dimensional representations of object 【将难以表示的对象(如图片,文本等)用连续的低维度的方式表示】 RNN: Recurrent Neural Network -> for processing sequential data (time se

发表在SIGMOD 2024上的高维向量检索/向量数据库/ANNS相关论文

前言 SIGMOD 2024会议最近刚在智利圣地亚哥结束,有关高维向量检索/向量数据库/ANNS的论文主要有5篇,涉及混合查询(带属性或范围过滤的向量检索)优化、severless向量数据库优化、量化编码优化、磁盘图索引优化。此外,也有一些其它相关论文,比如FedKNN: Secure Federated k-Nearest Neighbor Search。 下面对这些论文进行一个简单汇总介绍

深度学习:关于损失函数的一些前置知识(PyTorch Loss)

在之前进行实验的时候发现:调用 Pytorch 中的 Loss 函数之前如果对其没有一定的了解,可能会影响实验效果和调试效率。以 CrossEntropyLoss 为例,最初设计实验的时候没有注意到该函数默认返回的是均值,以为是总和,于是最后计算完 Loss 之后,手动做了个均值,导致实际 Loss 被错误缩放,实验效果不佳,在后来 Debug 排除代码模型架构问题的时候才发觉这一点,着实花费了

BookSim2 安装步骤教程 Network-on-Chips (NoCs) 片上网络模拟器 含视频

BookSim简介 BookSim2 一个用于Network-on-Chips (NoCs) 芯片上网络的周期精确模拟器。该模拟器的设计是为了实现网络组件的模拟灵活性和精确建模。  BookSim1 是一个通用的网络模拟器,并不专门针对片上环境。不支持在片上网络环境中提出的一些更先进的功能和拓扑结构。 背景 随着集成在单个芯片上的核心和模块数量的不断增加,片上网络正成为现代微处理器不可或缺

论文《Tree Decomposed Graph Neural Network》笔记

【TDGNN】本文提出了一种树分解方法来解决不同层邻域之间的特征平滑问题,增加了网络层配置的灵活性。通过图扩散过程表征了多跳依赖性(multi-hop dependency),构建了TDGNN模型,该模型可以灵活地结合大感受场的信息,并利用多跳依赖性进行信息聚合。 本文发表在2021年CIKM会议上,作者学校:Vanderbilt University,引用量:59。 CIKM会议简介:全称C

使用tf*idf实现对文档集合的检索

步骤: 读取三篇文档1.txt,2.txt,3.txt,里边的内容分别为“this is php”,“this is html html”,“this is java” 分词,并统计词频tf 计算文档频率df 计算每篇文档的特征向量 计算搜索词与文档的夹角余弦值 <?php$_txts = array('1.txt','2.txt','3.txt');$_len = cou

SQLCookbook 学习笔记 1检索记录

特殊字符 * 表示 所有列 使用* 和指定某个列 ,性能相同。 使用WHERE 指定 要保留哪些行 判断某个字段 是非为空  用 is null 或者  is not null 如: mysql> select * from menpiao where logdate is  null; 在使用 and 和or 的时候,可以使用圆括号作为一个 整体的判断。 在select

【Deep Learning】Meta-Learning:训练训练神经网络的神经网络

元学习:训练训练神经网络的神经网络 本文基于清华大学《深度学习》第12节《Beyond Supervised Learning》的内容撰写,既是课堂笔记,亦是作者的一些理解。 1 Meta-Learning 在经典监督学习中,给定训练数据 { ( x i , y i ) } i \{(x_i,y_i)\}_i {(xi​,yi​)}i​,我们需要训练一个神经网络 f f f使得 f (

【Deep Learning】Self-Supervised Learning:自监督学习

自监督学习 本文基于清华大学《深度学习》第12节《Beyond Supervised Learning》的内容撰写,既是课堂笔记,亦是作者的一些理解。 在深度学习领域,传统的监督学习(Supervised Learning)的形式是给你输入 x x x和标签 y y y,你需要训练一个基于参数 θ \theta θ的神经网络 f θ ( x ) f_\theta(x) fθ​(x)使其能