【汇总贴】人脸识别相关论文的优秀解读博客汇总

2024-08-26 14:38

本文主要是介绍【汇总贴】人脸识别相关论文的优秀解读博客汇总,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

人脸识别相关论文的优秀解读博客汇总

为了便于以后查阅,将看到的人脸识别相关论文的解读博客做一个汇总。

0、综述:

  1. 如何走近深度学习人脸识别?你需要这篇超长综述 | 附开源代码
  2. 关于度量学习的解释

一、FaceNet

论文地址:https://arxiv.org/abs/1503.03832

参考博客:
1. 史上最全的FaceNet源码使用方法和讲解(附预训练模型下载)
2. facenet 代码阅读笔记:如何训练基于triplet-loss的模型
2. 谷歌人脸识别系统FaceNet解析
3. FaceNet—深度学习与人脸识别的二次结合
4. 【人脸识别】FaceNet- A Unified Embedding for Face Recognition and Clustering

二、对于损失函数的改进

1、Deep Face Recognition

针对 Triplet Loss训练收敛缓慢的问题,提出了先用传统的 softmax粗训练人脸识别模型,再用Triplet Loss进行细致训练。
论文地址:http://www.robots.ox.ac.uk/~vgg/software/vgg_face/

参考博客:
人脸识别:Deep Face Recognition论文阅读

2、 In Defense of the Triplet Loss for Person Re-Identification

主要贡献是:① 设计了新的Triplet Loss(去掉了平方项),并和其它变种进行了对比;② 引进了 Batch Hard Sampling
论文地址:https://arxiv.org/abs/1703.07737

github地址:https://github.com/VisualComputingInstitute/triplet-reid

参考博客:
1. Re-ID with Triplet Loss
2. 【论文笔记】In Defense of the Triplet Loss for Person Re-Identification

3、Sampling matters in deep embedding learning

主要贡献:① 改进了样本选取的方法(Distance Weighted Sampling Method);② 提出了一种triplet loss的变体—— Margin Based Loss。据说这两个都比上一篇论文中的效果更好,但是没有亲测。

特别需要说明的是,这篇论文里回顾了contrastive loss,triplet loss(facenet论文)的损失函数和sample的选取方式,并说明了其相应的优缺点,可以说集合了这两篇论文的精华思想。看一篇,顶三篇。

论文地址:https://arxiv.org/abs/1706.07567

参考博客:
1. 深度学习新的采样方式和损失函数论文笔记-知乎
2. 知乎-如何评价Sampling Matters in Deep Embedding Learning?

这篇关于【汇总贴】人脸识别相关论文的优秀解读博客汇总的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1108849

相关文章

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

MCU7.keil中build产生的hex文件解读

1.hex文件大致解读 闲来无事,查看了MCU6.用keil新建项目的hex文件 用FlexHex打开 给我的第一印象是:经过软件的解释之后,发现这些数据排列地十分整齐 :02000F0080FE71:03000000020003F8:0C000300787FE4F6D8FD75810702000F3D:00000001FF 把解释后的数据当作十六进制来观察 1.每一行数据

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

Spring 源码解读:自定义实现Bean定义的注册与解析

引言 在Spring框架中,Bean的注册与解析是整个依赖注入流程的核心步骤。通过Bean定义,Spring容器知道如何创建、配置和管理每个Bean实例。本篇文章将通过实现一个简化版的Bean定义注册与解析机制,帮助你理解Spring框架背后的设计逻辑。我们还将对比Spring中的BeanDefinition和BeanDefinitionRegistry,以全面掌握Bean注册和解析的核心原理。

两个月冲刺软考——访问位与修改位的题型(淘汰哪一页);内聚的类型;关于码制的知识点;地址映射的相关内容

1.访问位与修改位的题型(淘汰哪一页) 访问位:为1时表示在内存期间被访问过,为0时表示未被访问;修改位:为1时表示该页面自从被装入内存后被修改过,为0时表示未修改过。 置换页面时,最先置换访问位和修改位为00的,其次是01(没被访问但被修改过)的,之后是10(被访问了但没被修改过),最后是11。 2.内聚的类型 功能内聚:完成一个单一功能,各个部分协同工作,缺一不可。 顺序内聚:

log4j2相关配置说明以及${sys:catalina.home}应用

${sys:catalina.home} 等价于 System.getProperty("catalina.home") 就是Tomcat的根目录:  C:\apache-tomcat-7.0.77 <PatternLayout pattern="%d{yyyy-MM-dd HH:mm:ss} [%t] %-5p %c{1}:%L - %msg%n" /> 2017-08-10

Node Linux相关安装

下载经编译好的文件cd /optwget https://nodejs.org/dist/v10.15.3/node-v10.15.3-linux-x64.tar.gztar -xvf node-v10.15.3-linux-x64.tar.gzln -s /opt/node-v10.15.3-linux-x64/bin/npm /usr/local/bin/ln -s /opt/nod