AAAI2024-分享若干篇有代码的优秀论文-图神经网络、时间序列预测、知识图谱、大模型等

本文主要是介绍AAAI2024-分享若干篇有代码的优秀论文-图神经网络、时间序列预测、知识图谱、大模型等,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

图神经网络、大模型优化方向系列文章目录

为了方便大家根据自己的兴趣查看自己的研究方向论文,在这里进行了细分。如果有对其中的论文感兴趣的,可以查看对应的文章在论文相应的代码,方便快速上手学习,也可以借助这些代码的学习快速的写出属于自己的一篇论文。

第38届AAAI人工智能年度会议在2024年2月加拿大温哥华举行。今年的AAAI 会议投稿量突破了历史记录,共有12100篇投稿(主赛道),最终仅仅录用2342篇,录用率为23.75%。
在这里插入图片描述

今天主要分享若干篇收录有代码的CCF-A类AAAI会议论文,简单的概述相关的内容分享给大家,后续有什么问题,欢迎大家一起交流。(有些论文还未看,需要时间整理)

AAAI是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。更多NLP国际顶级学术会议列表介绍可以参考这篇文章:https://mp.weixin.qq.com/s/7JkKpSON8JYsH4I7XzDVZQ

一、图神经网络

1.Fine-tuning Graph Neural Networks by Preserving Graph Generative Patterns

2.Continuous-time Graph Representation with Sequential Survival Process

3.Rethinking Causal Relationships Learning in Graph Neural Networks

4.Chasing Fairness in Graphs: A GNN Architecture Perspective

5.Emotion Rendering for Conversational Speech Synthesis with Heterogeneous Graph-Based Context Modeling

6.Rethinking Dimensional Rationale in Graph Contrastive Learning from Causal Perspective

7.Fair Federated Graph Neural Networks for Personalized Recommendation

8.SAT-Based Algorithms for Regular Graph Pattern Matching

9.Learning to Optimize Permutation Flow Shop Scheduling via Graph-based Imitation Learning

二、大语言模型

1.Benchmarking Large Language Models in Retrieval-Augmented Generation

2.An Ever-Updating Benchmark for Holistic Domain Knowledge Evaluation
摘要:为了适应大型语言模型(LLM)的快速发展,迫切需要新的自然语言处理(NLP)基准。对此,我们推出了最全面的评估套件Xiezhi(獬豸),旨在评估整体领域知识。Xiezhi由516个不同学科的选择题组成,共包含249,587道题目,并附有“Xiezhi-专业”和 “Xiezhi-跨学科”两个领域特色数据集,均有15k题。通过对解题网上47个最新的LLM进行评估,结果表明最强的LLM在科学、工程学、农学、医学和艺术方面的表现有了超过人类的平均水平,但在经济学、法学、教育学、文学、历史学和管理学方面则有所欠缺。我们期待Xiezhi能帮助分析人类和LLM之间的差距,并能有助于分析LLM的重要优势和不足。

3.Can Large Language Models Understand Real-World Complex Instructions
摘要:大规模语言模型(LLMs)能够理解人类丰富的指令,其应用场景不再局限于传统自然语言处理任务。然而,LLMs在处理真实使用场景中的复杂指令时仍然面临挑战。这些复杂指令可能包含需要执行的多个任务或者需要遵循的多个约束条件,也可能包含长篇幅、噪声、异构信息和多轮对话格式的复杂输入。大模型的很多错误可以归因于无法理解复杂指令:LLMs通常会忽略任务描述中的语义约束、格式约束、数据约束等,从而无法忠实于给定的输入内容进行回答等。目前的基准测试无法全面评估LLMs理解复杂指令的能力,因为它们涵盖的指令通常是封闭且简单的。为了弥补这一不足,我们提出了CELLO,一个用于系统评估LLMs理解复杂指令能力的基准测试集,归纳了复杂指令的八个特征,并从真实场景中搜集数据从而构建了评估数据集。此外,鉴于现有评估指标存在不适用、含有偏见或者粗粒度等问题,我们建立了四个评估LLMs理解复杂指令能力的标准并将其量化为自动化指标。通过广泛的实验对比了具有代表性的中英文大模型对复杂指令理解的能力。

4.SECap: Speech Emotion Captioning with Large Language Model

5.Data-Efficient Alignment of Large Language Models with Human Feedback Through Natural Language

三、时间序列预测

四、知识图谱

1.Knowledge Graph Error Detection with Contrastive Confidence Adaption

2.Knowledge Graph Error Detection with Contrastive Confidence Adaption

3.Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey
这一论文并非AAAI的论文,但是可以通过这篇论文了解知识图谱的很多论文。

4.Editing Language Model-based Knowledge Graph Embeddings

五、多模态

1.LAMM: Label Alignment for Multi-Modal Prompt Learning

2.Generative-based Fusion Mechanism for Multi-Modal Tracking

摘要:尽管生成模型在众多研究任务中已经展现了较强的综合理解能力,它在多模态目标跟踪中的应用仍未被探索。因此,在此文中我们尝试使用生成式范式去解决多模态任务的核心问题-多模态信息融合。我们深入对比了两种常见的生成模型,条件生成对抗网络以及扩散模型。与传统融合范式将各个模态特征直接输入到融合网络不同,在生成式融合范式中我们将模态特征与随机噪声相结合,有效地将原始相对简单的样本对转换为困难样本对,提高了网络对噪声(无效信息)的感知能力,因此能够获得更好地跟踪性能。为了验证方法的有效性及鲁棒性,我们在2个不同的跟踪任务、3个不同的跟踪框架、4个不同的跟踪基准测试集上进行了验证实验,体现了算法较好的鲁棒性,同时在GTOT、LasHeR和RGBD1K测试集上达到了当前的最优性能。
3.Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal Structured Representations

4.T-SciQ: Teaching Multimodal Chain-of-Thought Reasoning via Mixed Large Language Model Signals for Science Question Answering

六、推荐系统

1.Temporally and Distributionally Robust Optimization for Cold-Start Recommendation

七、强化学习

1.BadRL: Sparse Targeted Backdoor Attack Against Reinforcement Learning
2.Explaining Reinforcement Learning Agents Through Counterfactual Action Outcomes
3.ReCePS: Reward Certification for Policy Smoothed Reinforcement Learning
4.Contextual Pre-planning on Reward Machine Abstractions for Enhanced Transfer in Deep Reinforcement Learning

八、扩散模型

1.Brush Your Text: Synthesize Any Scene Text on Images via Diffusion Mode

2.SPD-DDPM: Denoising Diffusion Probabilistic Models in the Symmetric Positive Definite Space

3.DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection

4.ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and Implicit Style Prompt Bank

5.AnomalyDiffusion: Few-Shot Anomaly Image Generation with Diffusion Model

6.Audio Generation with Multiple Conditional Diffusion Model

7.Compositional Text-to-Image Synthesis with Attention Map Control of Diffusion Models

8.LDMVFI: Video Frame Interpolation with Latent Diffusion Models

九、其它有趣的研究

1.DeepCalliFont: Few-shot Chinese Calligraphy Font Synthesis by Integrating

2.Text2Analysis: A Benchmark of Table Question Answering withAdvanced Data Analysis and Unclear Queries

3.Coreference Graph Guidance for Mind-Map Generation

4.Zero-1-to-3:Domain-level Zero-shot Cognitive Diagnosis via One Batch of Early-bird Students towards Three Diagnostic Obiectives

5.Enhance Sketch Recognition’s Explainability via Semantic Component-Level Parsing

6.Toward Robustness in Multi-label Classification: A Data Augmentation Strategy against Imbalance and Noise

7.Towards Automatic Boundary Detection for Human-AI Collaborative Hybrid Essay in Education

8.Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning

这篇关于AAAI2024-分享若干篇有代码的优秀论文-图神经网络、时间序列预测、知识图谱、大模型等的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/771682

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Java架构师知识体认识

源码分析 常用设计模式 Proxy代理模式Factory工厂模式Singleton单例模式Delegate委派模式Strategy策略模式Prototype原型模式Template模板模式 Spring5 beans 接口实例化代理Bean操作 Context Ioc容器设计原理及高级特性Aop设计原理Factorybean与Beanfactory Transaction 声明式事物

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

服务器集群同步时间手记

1.时间服务器配置(必须root用户) (1)检查ntp是否安装 [root@node1 桌面]# rpm -qa|grep ntpntp-4.2.6p5-10.el6.centos.x86_64fontpackages-filesystem-1.41-1.1.el6.noarchntpdate-4.2.6p5-10.el6.centos.x86_64 (2)修改ntp配置文件 [r

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

sqlite3 相关知识

WAL 模式 VS 回滚模式 特性WAL 模式回滚模式(Rollback Journal)定义使用写前日志来记录变更。使用回滚日志来记录事务的所有修改。特点更高的并发性和性能;支持多读者和单写者。支持安全的事务回滚,但并发性较低。性能写入性能更好,尤其是读多写少的场景。写操作会造成较大的性能开销,尤其是在事务开始时。写入流程数据首先写入 WAL 文件,然后才从 WAL 刷新到主数据库。数据在开始

【专题】2024飞行汽车技术全景报告合集PDF分享(附原数据表)

原文链接: https://tecdat.cn/?p=37628 6月16日,小鹏汇天旅航者X2在北京大兴国际机场临空经济区完成首飞,这也是小鹏汇天的产品在京津冀地区进行的首次飞行。小鹏汇天方面还表示,公司准备量产,并计划今年四季度开启预售小鹏汇天分体式飞行汽车,探索分体式飞行汽车城际通勤。阅读原文,获取专题报告合集全文,解锁文末271份飞行汽车相关行业研究报告。 据悉,业内人士对飞行汽车行业

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n