多任务——Facial Landmark

2024-03-16 08:30
文章标签 多任务 landmark facial

本文主要是介绍多任务——Facial Landmark,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 《Facial Landmark Detection by Deep Multi-task Learning》2014

**要解决的问题:**人脸关键点的检测
**创新点:**在人脸关键点检测的同时进行多个任务的学习,包括:性别,是否带眼镜,是否微笑和脸部的姿势。使用这些辅助的属性可以更好的帮助定位关键点。这种Multi-task learning的困难在于:不同的任务有不同的特点不同的收敛速度。针对这两个问题,文章给出前者的解决办法是tasks-constrained deep model,对后者解决办法是task-wise early stopping。文章中的方法在处理有遮挡和姿势变化时表现较好,而且模型比较简单。
网络结构:
这里写图片描述
实验中,作者对不同的辅助任务跟主任务人脸关键点检测进行不同形式的组合,证明了辅助任务对于关键点检测的准确性有提高作用。

1)tasks-constrained deep model
传统的多任务学习把每个任务都赋予相同的权重,损失函数就是不同任务的损失函数直接相加。而在人脸特征点检测的任务中,不同的任务具有不同的loss,特征点检测是平方和误差,而其它分类任务是交叉熵误差,在训练时,各个任务使用相同的特征,只有在最后一级
才根据任务的不同做不同的处理(分类或者回归)。不同的任务设置不同的权重参数。
2)Task-wise early stopping
针对多任务学习的特点,作者提出了一种新的early stopping方法。当辅助任务达到最好表现以后,这个任务就对主要任务没有帮助了,就可以停止这个任务。难点在于什么时候进行停止,更多的是根据经验来判断,作者的着重点在于关键点的检测,部分的牺牲了辅助任务的性能。


注:博众家之所长,集群英之荟萃。

在这里插入图片描述

这篇关于多任务——Facial Landmark的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/814886

相关文章

2.3多任务编程示例1

1.CUBEMAX配置  2.CODE void StartTask1(void const * argument){/* USER CODE BEGIN StartTask1 */TickType_t pxPreviousWakeTime=xTaskGetTickCount();/* Infinite loop */for(;;){LED1_Turn();// vTaskDelay

基于STM32的RTOS--freertos的使用(HAL实现多任务)

一:STM32cubemx配置         1:工程建立                         (1)打开stm32cubemx  点击进入芯片选择页面                                         (2)选择对应的芯片型号双击         2:调试接口配置                  3:时钟设置

深入RAG优化:BGE词嵌入全解析与Landmark Embedding新突破

前面已经写过一篇关于Embedding选型的文章,《如何高效选择RAG的中文Embedding模型?揭秘最佳实践与关键标准!》,主要介绍通过开源网站的下载量和测评效果选择Embedding模型。 一、Embedding选型建议与结果 选型建议: 1、大部分模型的序列长度是 512 tokens。8192 可尝试 tao-8k,1024 可尝试 stella。 2、在专业数据领域上,嵌入

MOELoRA —— 多任务医学应用中的参数高效微调方法

人工智能咨询培训老师叶梓 转载标明出处 在医疗场景中,LLMs可以应用于多种不同的任务,如医生推荐、诊断预测、药物推荐、医学实体识别、临床报告生成等。这些任务的输入和输出差异很大,给统一模型的微调带来了挑战。而且LLMs的参数众多,导致微调过程中时间和计算资源的消耗巨大。针对这些问题,来自西安交通大学、香港城市大学、腾讯YouTu Lab等机构的研究者们提出了一种新颖的参数高效微调框架——MOE

多线程处理多任务,主线程保证全部完成的方案

最近工作中需要给客户回复数据,需要打开客户数据传输通道,多个任务利用多线程处理,处理结束后关闭传输通道。 时间原因:借助他人的博客方案。 1、https://blog.csdn.net/z69183787/article/details/52911653 2、https://www.cnblogs.com/jsunday/p/3782874.html

多任务学习MTL模型:多目标Loss优化策略

前言 之前的文章中多任务学习MTL模型:MMoE、PLE,介绍了针对多任务学习的几种模型,着重网络结构方面的优化,减缓task之间相关性低导致梯度冲突,模型效果差,以及task之间的“跷跷板”问题。 但其实多任务学习还存在另外一些棘手的问题: 1、不同task的loss量级不同,可能会出现loss较大的task主导的现象(loss较大的task,梯度也会较大,导致模型的优化方向很大程度上由该

Android U 多任务启动分屏——整体流程介绍

序 原生的分屏功能是在多任务中,点击应用图标选择分屏,在选择多任务中的其他应用进行分屏 整体流程 层级结构 #1 DefaultTaskDisplayArea type=undefined mode=fullscreen override-mode=fullscreen requested-bounds=[0,0][0,0] bounds=[0,0][1440,2960]#1 Task=

基于DOS的多任务系统的实现

一, 课程设计的目的 通过对线程(和进程)的创建和撤销,CPU的调度,同步机制,通信机制的实现,以达到一下目的: 1, 加深对线程和进程概念的理解,明确进程和程序的区别。 2, 加深对CPU调度过程(现场保护,CPU的分派和现场的恢复)的理解。 3, 进一步认识并执行的概念,明确顺序执行和并发执行的区别。 4, 加深对临界资源,临界区,信号量以及同步机制的理解。 5, 加深对消息缓冲通信的理解。

大语言模型向量检索技术综述:背景知识、数据效率、泛化能力、多任务学习、未来趋势

预训练语言模型如BERT和T5,是向量检索(后续文中使用密集检索)的关键后端编码器。然而,这些模型通常表现出有限的泛化能力,并在提高领域内准确性方面面临挑战。最近的研究探索了使用大型语言模型(LLMs)作为检索器,实现了各种任务的最新性能。尽管取得了这些进展,LLMs相对于传统检索器的具体优势,以及不同LLM配置—例如参数大小、预训练持续时间和对齐过程—对检索任务的影响仍然不清楚。在这项工作中,我

多任务下载工具.exe

关键代码 void DownloadTask::StartDownload(const QUrl url,QFile *file,qint64 startPoint/* =0 */,qint64 endPoint/* =-1 */){if( NULL == file )return;m_HaveDoneBytes = 0;m_StartPoint = startPoint;m_EndPoi