networkfor专题

Fusion-Extraction Networkfor Multimodal Sentiment Analysis(CCF C类)

本篇文章发表在2020年的Pacific-Asia conference on knowledge discovery and data mining会议,是关于图像和文本情感分类。使用的数据集是来自twitter的MVSA-Single和MVSA-Multiple。本文所提出方法的实验效果达到了当时的SOTA。 目录 一、文章动机 二、本篇文章的贡献 三、本文所提出的模型

Robust Data Augmentation Generative Adversarial Networkfor Object Detection

摘要 基于生成对抗性网络(GAN)的数据扩充用于提高目标检测模型的性能。它包括两个阶段:训练GAN生成器以学习小目标数据集的分布,以及从训练的生成器中采样数据以提高模型性能。在本文中,我们提出了一种流程化的模型,称为鲁棒数据增强GAN(RDAGAN),旨在增强用于目标检测的小型数据集。首先,将干净的图像和包含来自不同域的图像的小数据集输入RDAGAN,然后RDAGAN生成与输入数据集中的图像相似

Fine-grained Cross-modal Alignment Networkfor Text-Video Retrieval--文献阅读翻译

题目:Fine-grained Cross-modal Alignment Networkfor Text-Video Retrieval 作者:Ning Han Hunan University ninghan@hnu.edu.cn           Jingjing Chen∗   Fudan University  chenjingjing@fudan.edu.cn