[论文记录] 2021 - ArtEmis: Affective Language for Visual Art

2024-01-11 10:20

本文主要是介绍[论文记录] 2021 - ArtEmis: Affective Language for Visual Art,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

[论文记录] 2021 - ArtEmis: Affective Language for Visual Art

  • 论文简介
  • 论文内容
    • 摘要
    • 1 介绍
      • (1)为什么关注于视觉艺术(visual art)?
      • (2)ArtEmis数据集的创新点
      • (3)观者反应的主观性
      • (4)情感解释的难点
      • (5)情感语音机器人


论文简介

原论文:ArtEmis: Affective Language for Visual Art1

视觉艺术中的情感语言

论文地址:https://arxiv.org/abs/2101.07396

以下仅为作者阅读论文时的记录,学识浅薄,如有错误,欢迎指正。


论文内容

摘要

  • We present a novel large-scale dataset and accompanying machine learning models aimed at providing a detailed understanding of the interplay between visual content, its emotional effect, and explanations for the latter in language.
    我们提出了一个新的大规模数据集以及相应的机器学习模型,为了详细理解有关视觉内容之间关联性及其情感效应,并用语言对后者进行解释。

  • In contrast to most existing annotation datasets in computer vision, we focus on the affective experience triggered by visual artworks and ask the annotators to indicate the dominant emotion they feel for a given image and, crucially, to also provide a grounded verbal explanation for their emotion choice.
    与计算机视觉中现有的大多数注释数据集相比,我们关注的是视觉艺术作品触发的情感体验,并要求注释者表明他们对给定图像感受到的主要情感,同时,他们也要为选择的情感提供一个理由充足的语言解释,这一点很重要。

  • As we demonstrate below, this leads to a rich set of signals for both the objective content and the affective impact of an image, creating associations with abstract concepts (e.g., “freedom” or “love”), or references that go beyond what is directly visible, including visual similes and metaphors, or subjective references to personal experiences.
    正如我们下面所展示的,这导致了大量有关图像客观内容情感影响的信号,创建了与抽象概念(如“自由”或“爱”)之间的联系,或引出了一些从图片中不能直接看见的东西,包括视觉明喻隐喻,或根据个人体验的主观延伸

  • We focus on visual art (e.g., paintings, artistic photographs) as it is a prime example of imagery created to elicit emotional responses from its viewers.
    我们聚焦在视觉艺术上(例如,画作、艺术照),因为它是被创作出来引发观众情感的主要例子。

  • Our dataset, termed ArtEmis, contains 455K emotion attributions and explanations from humans, on 80K artworks from WikiArt.
    我们的数据集叫做ArtEmis,包含了在WikiArt中8万件艺术品上来自人类的45.5K件情感归因和解释

  • Building on this data, we train and demonstrate a series of captioning systems capable of expressing and explaining emotions from visual stimuli.
    我们基于这些数据训练和证明了一系列在视觉刺激下能够表达和解释情绪文字说明系统

  • Remarkably, the captions produced by these systems often succeed in reflecting the semantic and abstract content of the image, going well beyond systems trained on existing datasets.
    值得注意的是,这些系统产生的文字说明通常能够成功地反映出图像的语义和抽象内容,远远超过了在现有数据集上训练的系统。

  • The collected dataset and developed methods are available at https://artemisdataset.org.
    数据集和方法在:https://artemisdataset.org

1 介绍

  • 本文试图更好地理解一件艺术作品的视觉属性、它可能产生的主观情感以及通过语言解释这些情感的方式之间的联系

  • 本文还设计了一个基于神经元的语音机器人(neural-based speakers),旨在模拟人类对视觉艺术的情感反应,并提供相关的解释。

(1)为什么关注于视觉艺术(visual art)?

  1. 视觉艺术创作的目的就是为了引发观看者的情感;
  2. 艺术品不像是自然图像,特别是一些抽象作品,它不能简单地用一个标签去解释。

(2)ArtEmis数据集的创新点

  • 它包含了一些情感的语言解释,比如:
    • ‘her youthful face accentuates her innocence’,
      “她年轻的脸突出了她的天真”(心理学的联系)
    • ‘her neck is too long, this seems unnatural’
      “她的脖子太长了,这看起来很不自然”(主题特点)
    • ‘it reminds me of my grandmother’ or ‘it looks like blood’
      “这让我想起我的祖母”或“它看起来像血”(结合了观看者的个人经历)

(3)观者反应的主观性

  • 一个人对于同一个视觉刺激可能有不同的标注,但是大多数观者的主要情感都是相似的;

  • 下图为数据集中的一些例子,包括有关“鸟”的抽象语义情感状态,每幅图片带有一个情感标注和语言解释(同样是鸟,但是感受不同):
    数据集中的一些例子

(4)情感解释的难点

  • 神经科学家对于人类感是天生的(innate)还是习得的(learned)存在争论,这一点需要谨慎。

(5)情感语音机器人

  • 在本文提出数据集上训练了一个基于深度学习语言生成的语音机器人;
  • 在情绪图灵测试中表现得相当好。

  1. Achlioptas P, Ovsjanikov M, Haydarov K, et al. Artemis: Affective language for visual art[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 11569-11579. ↩︎

这篇关于[论文记录] 2021 - ArtEmis: Affective Language for Visual Art的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/594051

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

如何在Visual Studio中调试.NET源码

今天偶然在看别人代码时,发现在他的代码里使用了Any判断List<T>是否为空。 我一般的做法是先判断是否为null,再判断Count。 看了一下Count的源码如下: 1 [__DynamicallyInvokable]2 public int Count3 {4 [__DynamicallyInvokable]5 get

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

学习记录:js算法(二十八):删除排序链表中的重复元素、删除排序链表中的重复元素II

文章目录 删除排序链表中的重复元素我的思路解法一:循环解法二:递归 网上思路 删除排序链表中的重复元素 II我的思路网上思路 总结 删除排序链表中的重复元素 给定一个已排序的链表的头 head , 删除所有重复的元素,使每个元素只出现一次 。返回 已排序的链表 。 图一 图二 示例 1:(图一)输入:head = [1,1,2]输出:[1,2]示例 2:(图

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin