论文阅读Personalized Image Aesthetics Assessment with Rich Attributes

本文主要是介绍论文阅读Personalized Image Aesthetics Assessment with Rich Attributes,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

1.PIAA&GIAA

2.数据集 "PARA"

2.1.图片收集

2.2  标签设计

2.3 人员选择

2.4 主观实验

3.数据分析

4.基准(benchmark)

5.结论

6.专业术语


1.PIAA&GIAA

GIAA:只反映了平均观点,忽视了美感评估的高度主观性

PIAA:捕获独一无二的审美偏好

PIAA 模型产生于通用美学评价模型(GIAA),区别之处在于:使用个人数据微调,强调学习个性化偏好。相比无条件的 PIAA 模型,条件 PIAA 建模时分别添加了三种条件信息,包括个体性格、美学经验和摄影经验。

2.数据集 "PARA"

从以人为方向和以图片为方向的两个方面设计标签,尤其,除了图片美感特征,也收集了主观评价:1.内容偏好2.评估难度3.情感4.分享意愿

数据集制作分为四步:图片收集、标签设计、人员选择以及主观实验

2.1.图片收集

AES:第一个用于PIAA的数据集

FLICKR-AES:不是由图片的拥有者提供的

REAL-CUR:小规模数据集,通常用作测试集

AADB:提供了11个美学评估注释和美学分数

2.2  标签设计

13个标签:13个属性标签包含 9个客观属性(例如图像美学、情感等),4个主观属性(例如内容偏好、分享意愿等)

2.3 人员选择

人员选择的原则是保证被试人员的质量和多样性,研究员从健康状况、标注经历、用户画像以及培训考核等方面选择“入库人群”。例如,只有具有一定标注经验,身心健康的个体,且通过每日的标注培训和考核后,才可以进行数据标注。

2.4 主观实验

主观实验遵循心理学主观实验规范。研究员将整个数据库分成 446 个标注会话,每个标注会话包含 70 张待标记的图像,5 张有标记的图像(提前多人标注作为标准图校验标注是否符合通用标准),以及 5 张重复的图像(需要打两次标注的,从而测试标注的一致性)

3.数据分析

在(4,5] 区间,美学评分比起其他区间具有更低的方差,这意味着对 "什么是美 "有共同的认知,但存在不同的审美观点。

表明图片的质量能很大程度影响美学评分;当人们喜欢图片内容的时候会更容易分享图片

4.基准(benchmark)

由于 PIAA 是一个典型的小样本问题,研究员们参考零样本学习以及之前的相关工作进行实验设置,例如分为三组:无微调组(“对照组”)、10-shot 组、100-shot 组

结果:

  1. 10-shot 组、100-shot 组PIAA胜过无微调组(“对照组”)
  2. 更多的个性化训练数据能更好的提升微调表现
  3. PIAA模型上利用主观特征信息能够提升模型表现

Unconditional PIAA:训练一个GIAA模型,直接利用个人数据来学习个性化偏好直接微调GIAA模型

Conditional PIAA:构建模型时添加了3类条件信息——个性特征、美术经历、摄影经历

5.结论

  1. 一个心得PIAA数据集“PARA”:13个维度,9个客观属性(例如图像美学、情感等),4个主观属性(例如内容偏好、分享意愿等)
  2. 实验结果表明个性化美学偏好能映射出主观特征
  3. 增加主观信息能更好地构建个性化美学偏好模型

6.专业术语

  1. collaborative learning:协同学习是指使用一个资源丰富的模态信息来辅助另一个资源相对贫瘠的模态进行学习,比如迁移学习(Transfer Learning)就是属于这个范畴
  2. meta-learning:元学习,又称为learning to learn,该算法旨在让模型学会“学习”,能够处理类型相似的任务,而不是只会单一的分类任务。
  3. Personalized Image Aesthetics Assessment:个性化图像美学评估
  4. Ground truth:在有监督学习中,数据是有标注的,以(x, t)的形式出现,其中x是输入数据,t是标注,正确的t标注是ground truth, 错误的标记则不是。(也有人将所有标注数据都叫做ground truth)
  5. Few-shot Learning:少样本学习,用很少的样本去做分类或者回归,是 Meta Learning 在监督学习领域的应用,few-shot learning与传统的监督学习算法不同,它的目标不是让机器识别训练集中图片并且泛化到测试集,而是让机器自己学会学习

论文原文:08388.pdf (xidian.edu.cn)

这篇关于论文阅读Personalized Image Aesthetics Assessment with Rich Attributes的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/340060

相关文章

Java子线程无法获取Attributes的解决方法(最新推荐)

《Java子线程无法获取Attributes的解决方法(最新推荐)》在Java多线程编程中,子线程无法直接获取主线程设置的Attributes是一个常见问题,本文探讨了这一问题的原因,并提供了两种解决... 目录一、问题原因二、解决方案1. 直接传递数据2. 使用ThreadLocal(适用于线程独立数据)

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

lvgl8.3.6 控件垂直布局 label控件在image控件的下方显示

在使用 LVGL 8.3.6 创建一个垂直布局,其中 label 控件位于 image 控件下方,你可以使用 lv_obj_set_flex_flow 来设置布局为垂直,并确保 label 控件在 image 控件后添加。这里是如何步骤性地实现它的一个基本示例: 创建父容器:首先创建一个容器对象,该对象将作为布局的基础。设置容器为垂直布局:使用 lv_obj_set_flex_flow 设置容器

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin