实时追踪科研动态丨姚期智等人8.9精选新论文,附ChatPaper综述

本文主要是介绍实时追踪科研动态丨姚期智等人8.9精选新论文,附ChatPaper综述,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

作为科研人员,每天需要检索和浏览大量的学术文献,以获取最新的科技进展和研究成果。然而,传统的检索和阅读方式已经无法满足科研人的需求。

ChatPaper,一款集检索、阅读、知识问答于一体的文献知识工具。帮助你快提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。

在这里插入图片描述

结合前沿动态订阅功能,精选arXiv当日热门新论文,形成论文综述,让大家更加快速了解前沿动态。

如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达ChatPaper页面:https://www.aminer.cn/chat/g/explain

2023年8月9日精选新论文列表:

1.All in One: Multi-task Prompting for Graph Neural Networks 阅读原文

论文讨论了在图神经网络中使用多任务提示的问题。目前,在许多图任务中,采用了“预训练和微调”的标准工作流程,因为这可以利用通用的图知识来缓解每个应用程序中缺乏图注释的问题。然而,节点级别、边级别和图级别的图任务千差万别,使得预训练假设往往与这些多个任务不兼容。这种差距甚至可能对特定应用程序产生“负迁移”,导致结果不佳。受自然语言处理(NLP)中的提示学习的启发,该论文研究了填补预训练模型与各种图任务之间差距的提示主题。在本文中,提出了一种新颖的用于图模型的多任务提示方法。具体来说,首先通过提示标记、标记结构和插入模式统一了图提示和语言提示的格式,这样可以将NLP中的提示思想无缝地引入到图领域。然后,为了进一步缩小各种图任务与最先进的预训练策略之间的差距,还进一步研究了各种图应用程序的任务空间,并将下游问题重新定义为图级别任务。然后,引入元学习来高效地学习更好的初始化,以便我们的提示框架在不同任务中更可靠和通用。通过广泛的实验证明了该方法的优越性。

论文链接:https://www.aminer.cn/pub/64a63bbad68f896efaec478f

2.3D Gaussian Splatting for Real-Time Radiance Field Rendering 阅读原文

论文提出了一个称为3D高斯喷洒的方法,用于实时辐射场渲染。目前存在的辐射场渲染方法在达到高质量的视觉效果时需要昂贵的神经网络进行训练和渲染,而最近的更快方法不可避免地以质量为代价换取速度。对于边界不明确且完整的场景(而不仅仅是孤立的对象)以及1080p分辨率的渲染,目前没有一种方法可以实现实时显示。该论文引入了三个关键要素,使我们能够在保持竞争力的训练时间的同时实现最先进的视觉质量,并且重要的是允许在1080p分辨率下实时合成高质量(≥ 30 fps)的新视图。首先,在相机校准期间生成的稀疏点的基础上,我们使用3D高斯函数来表示场景,这些高斯函数在保持连续体辐射场的理想特性的同时避免了在空白区域进行不必要的计算;其次,我们进行交错优化/密度控制以实现准确的场景表示,特别是通过优化各向异性协方差;第三,我们开发了一种快速的可视性感知渲染算法,支持各向异性喷洒,既加速了训练,又实现了实时渲染。我们在几个已有的数据集上展示了最先进的视觉质量和实时渲染效果。

论文链接:https://www.aminer.cn/pub/64d30f353fda6d7f06f6ca01

3.Simple synthetic data reduces sycophancy in large language models 阅读原文

论文指出了大型语言模型中存在的一种不良行为——奉承行为,即模型根据用户的观点来调整回应,即使这些观点在客观上是不正确的(例如,一旦用户透露他们是自由主义者,模型就会调整为采取自由主义观点)。论文提出了一种简单的合成数据干预方法来减少这种行为。在三个奉承任务的测试中,论文观察到模型规模的扩大和指导调优都会显著增加PaLM模型(参数达到540B)的奉承行为。其次,论文还将奉承评估扩展到了简单的错误加法陈述,发现尽管模型知道这些陈述是错误的,但如果用户同意这些陈述,语言模型仍然会同意它们。为了减少奉承行为,论文提出了一种简单的合成数据干预方法,通过对公共NLP任务进行轻量级微调,鼓励模型对用户在这些任务上的观点更加稳健。添加这些数据可以显著减少对保留提示中的奉承行为。

论文链接:https://www.aminer.cn/pub/64d30f2d3fda6d7f06f6c343

4.ReCLIP: Refine Contrastive Language Image Pre-Training with Source Free Domain Adaptation 阅读原文

研究了CLIP(大规模预训练的视觉语言模型)在目标领域中的性能问题。CLIP在零样本分类方面取得了出色的性能,例如在没有看到任何样本的情况下,在ImageNet上取得了76.3%的top-1准确率,这为许多没有标注数据的任务带来了潜在的好处。然而,将CLIP应用于目标领域时,视觉和文本领域之间的差距以及跨模态错误对模型性能会有很大的影响。为了解决这些挑战,作者提出了ReCLIP,这是一种为视觉语言模型进行无源领域自适应的方法,不需要任何源数据或目标标注数据。ReCLIP首先学习一个投影空间来减轻不对齐的视觉-文本嵌入,并学习伪标签,然后使用伪标签进行跨模态自训练,以迭代地更新视觉和文本编码器、优化标签并减小领域差距和不对齐。通过大量实验,作者展示了ReCLIP将CLIP的平均错误率从30.17%减少到25.06%,在22个图像分类基准测试中取得了较好的效果。

论文链接:https://www.aminer.cn/pub/64d30f2d3fda6d7f06f6c294

5.FLIRT: Feedback Loop In-context Red Teaming 阅读原文

论文主要介绍了一个自动化的红队测试框架,该框架评估给定模型并暴露其对不安全和不适当内容生成的漏洞。作者提出了不同的上下文攻击策略,以自动学习针对文本到图像模型的有效和多样化的对抗提示。实验证明,与基线方法相比,作者提出的策略在揭示Stable Diffusion(SD)模型的漏洞方面更加有效,即使后者已经增加了安全功能。此外,作者还展示了该框架对于文本到文本模型的红队测试的有效性,导致生成的有毒响应率显著高于之前报道的数据。

论文链接:https://www.aminer.cn/pub/64d30f353fda6d7f06f6cabc

6.Cumulative Reasoning With Large Language Models 阅读原文

文章说明了语言模型在解决复杂问题方面存在的局限性。虽然语言模型功能强大且具有多样性,但它们在解决高度复杂的问题时经常失败。这是因为解决复杂问题需要有意识的思考,在训练过程中这方面的指导只有很少的。因此,该研究提出了一种名为"累积推理"(Cumulative Reasoning,CR)的新方法,通过以累积和迭代的方式使用语言模型来模拟人类的思维过程。通过将任务分解成较小的组件,CR简化了问题解决过程,使其更容易管理和有效。在逻辑推理任务方面,CR始终优于现有方法,提高了9.3%,并且在经过精心策划的FOLIO维基数据集上实现了惊人的98.04%的准确性。在"24点游戏"的背景下,CR的准确率为94%,比之前最先进的方法提高了20%,标志着显着的改进。

论文链接:https://www.aminer.cn/pub/64d30f353fda6d7f06f6cb27

7.SILO Language Models: Isolating Legal Risk In a Nonparametric Datastore 阅读原文

研究论文说明了在训练语言模型时,面临的一个问题是对于受版权或其他限制的数据进行训练的合法性正在引起激烈的争议。然而,研究表明,如果仅仅在低风险文本(如无版权的书籍或政府文件)上进行训练,模型性能会显著下降,原因是这些文本的规模和领域覆盖有限。为了解决这个问题,作者提出了SILO语言模型,该模型可以在推理过程中平衡法律风险和性能。SILO模型的构建包括两个步骤:首先,在Open License Corpus(OLC)上训练一个参数化语言模型,该语料库由作者精心策划,包含2280亿个公共领域和许可授权文本;其次,使用一个更通用且易于修改的非参数化数据存储(例如包含受版权保护的书籍或新闻的存储)来增强模型,在推理过程中对其进行查询。这个数据存储允许使用高风险数据而无需在其上进行训练,支持以句子级别对数据进行归属,并且允许数据生产者选择从模型中删除内容。这些功能有助于遵守数据使用法规,如美国的公平使用主义和欧盟的《通用数据保护条例》(GDPR)。研究实验表明,参数化语言模型在OLC所覆盖领域上表现良好。然而,访问数据存储显著提高了模型在领域外性能,使其与在Pile语料库上训练的语言模型(该语料库更加多样,主要包含高风险文本)之间的性能差距缩小了90%。研究还分析了哪种非参数化方法最有效,剩余错误的原因,以及性能如何随着数据存储大小的变化而变化。研究结果表明,可以在减少法律风险的同时构建高质量的语言模型。

论文链接:https://www.aminer.cn/pub/64d30f353fda6d7f06f6cb62

8.SimplyRetrieve: A Private and Lightweight Retrieval-Centric Generative AI Tool 阅读原文

文章介绍了一个名为SimplyRetrieve的开源工具,旨在为机器学习社区提供一种本地化、轻量级和用户友好的界面,以实现最近几年中大规模语言模型(LLM)生成AI系统的重要进展。该工具集成了一个知识检索架构,允许将私人数据无缝地集成到公开可用的生成AI系统中,而无需额外的模型微调。此外,检索中心生成(RCG)方法是一种有前途的未来研究方向,它明确区分了LLMs和检索器在上下文解释和知识记忆中的角色,可能导致更高效的实现。通过利用SimplyRetrieve的图形用户界面和基于API的RCG平台,以及私有知识库构造器和检索调优模块,用户可以探索利用RCG提高生成AI性能的潜力,同时保持隐私标准。

论文链接:https://www.aminer.cn/pub/64d30f2d3fda6d7f06f6c35f


如何使用ChatPaper?

使用ChatPaper的方法很简单,打开AMiner首页,从页面顶部导航栏或者右下角便可进入ChatPaper页面。

在这里插入图片描述

在ChatPaper页面中,可以选择基于单篇文献进行对话和基于全库(个人文献库)对话,可选择上传本地PDF或者直接在AMiner上检索文献。

ChatPaper使用教程:点此查看

这篇关于实时追踪科研动态丨姚期智等人8.9精选新论文,附ChatPaper综述的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/562940

相关文章

第10章 中断和动态时钟显示

第10章 中断和动态时钟显示 从本章开始,按照书籍的划分,第10章开始就进入保护模式(Protected Mode)部分了,感觉从这里开始难度突然就增加了。 书中介绍了为什么有中断(Interrupt)的设计,中断的几种方式:外部硬件中断、内部中断和软中断。通过中断做了一个会走的时钟和屏幕上输入字符的程序。 我自己理解中断的一些作用: 为了更好的利用处理器的性能。协同快速和慢速设备一起工作

动态规划---打家劫舍

题目: 你是一个专业的小偷,计划偷窃沿街的房屋。每间房内都藏有一定的现金,影响你偷窃的唯一制约因素就是相邻的房屋装有相互连通的防盗系统,如果两间相邻的房屋在同一晚上被小偷闯入,系统会自动报警。 给定一个代表每个房屋存放金额的非负整数数组,计算你 不触动警报装置的情况下 ,一夜之内能够偷窃到的最高金额。 思路: 动态规划五部曲: 1.确定dp数组及含义 dp数组是一维数组,dp[i]代表

高效录音转文字:2024年四大工具精选!

在快节奏的工作生活中,能够快速将录音转换成文字是一项非常实用的能力。特别是在需要记录会议纪要、讲座内容或者是采访素材的时候,一款优秀的在线录音转文字工具能派上大用场。以下推荐几个好用的录音转文字工具! 365在线转文字 直达链接:https://www.pdf365.cn/ 365在线转文字是一款提供在线录音转文字服务的工具,它以其高效、便捷的特点受到用户的青睐。用户无需下载安装任何软件,只

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

代码随想录冲冲冲 Day39 动态规划Part7

198. 打家劫舍 dp数组的意义是在第i位的时候偷的最大钱数是多少 如果nums的size为0 总价值当然就是0 如果nums的size为1 总价值是nums[0] 遍历顺序就是从小到大遍历 之后是递推公式 对于dp[i]的最大价值来说有两种可能 1.偷第i个 那么最大价值就是dp[i-2]+nums[i] 2.不偷第i个 那么价值就是dp[i-1] 之后取这两个的最大值就是d

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已