Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk

2023-10-17 05:28

本文主要是介绍Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文是LLM系列文章,针对《Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk》的翻译。

语言模型能制造乐趣吗?中国滑稽相声个案研究

  • 摘要
  • 1 引言
  • 2 问题定义
  • 3 数据集
  • 4 使用自动评估生成基准
  • 5 人工评估
  • 6 讨论
  • 7 结论与未来工作

摘要

语言是人类交流的主要工具,幽默是其中最具吸引力的部分之一。像人类一样使用计算机生成自然语言,也就是自然语言生成(NLG),已被广泛用于对话系统、聊天机器人、文本摘要以及人工智能生成内容(AIGC),例如创意生成和脚本编写。然而,自然语言的幽默方面的研究相对较少,特别是在预训练语言模型的时代。在这项工作中,我们的目的是初步测试NLG是否能像人类一样产生幽默。我们建立了由大量中国滑稽相声剧本(简称c3)组成的最大数据集,这是自19世纪以来中国流行的表演艺术“相声”或“相声”。我们对各种生成方法进行基准测试,包括从头开始训练Seq2seq,微调的中等规模plm,以及带和不带微调的大规模plm。此外,我们还进行了人工评估,结果表明:1)大规模预训练大大提高了相声生成的质量;2)即使是最好的PLM生成的脚本也远远达不到我们的期望。我们得出结论,使用大规模plm可以极大地改善幽默生成,但它仍处于起步阶段。数据和基准测试代码可在https://github.com/ anonNo2/crosstalk-generation中公开获得。

1 引言

2 问题定义

3 数据集

4 使用自动评估生成基准

5 人工评估

6 讨论

7 结论与未来工作

在本文中,我们收集了中国相声的数据集。基于数据集,我们评估了几种现有的生成模型,包括LSTM Seq2seq、GPT、UniLM、CPM、Pangu-α、Zhouwenwang和GPT-3。这是幽默生成的初步步骤,说明大规模的预训练在很大程度上提高了相声生成的质量,但生成的脚本与人工创作的脚本之间仍然存在很大的差距。请注意,人们对相声的偏见/刻板印象存在一些担忧,例如教育背景歧视和性别偏见。在未来的工作中,我们有兴趣收集相声音频,以适应幽默的口音来促进端到端的相声生成。

这篇关于Can Language Models Make Fun? A Case Study in Chinese Comical Crosstalk的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/223221

相关文章

shader language学习(1)——shader language简介背景

shader language,称为着色语言,shade在英语是阴影、颜色深浅的意思。shader language基于物体本身属性和光照条件,计算美格橡塑的颜色值。 实际上这种解释具有明显的时代局限性,在GPU编程发展的早期,shader language的提出目标是加强对图形处理算法的控制,所以对该语言的定义也针对于此。但随着技术的进步,目前的shader language早已经用于通用计算

Retrieval-Augmented Generation for Large Language Models A Survey

Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 文章目录 Retrieval-Augmented Generation for Large Language Models: A Survey 文献综述 Abstract背景介绍 RAG概述原始RAG先进RAG预检索过程后检索过程 模块化RAGMo

无法解决 equal to 运算中 Chinese_PRC_90_CI_AS 和 Chinese_PRC_BIN 之间的排序规则冲突

这是因为数据库 oa 和 hh 的编码格式不一样导致的 select  groupname as oper_id,name as oper_name from security_users where name collate Chinese_PRC_CI_AS not in (select oper_name from PDA_UsersAndPWD )

AI 大模型企业应用实战(10)-LLMs和Chat Models

1 模型 来看两种不同类型的模型--LLM 和聊天模型。然后,它将介绍如何使用提示模板来格式化这些模型的输入,以及如何使用输出解析器来处理输出。 LangChain 中的语言模型有两种类型: 1.1 Chat Models 聊天模型通常由 LLM 支持,但专门针对会话进行了调整。提供者 API 使用与纯文本补全模型不同的接口。它们的输入不是单个字符串,而是聊天信息列表,输出则是一条人工智能

SQL中的CASE WHEN用法:

转载地址:http://www.2cto.com/database/201203/124327.html Java代码   SQL中Case的使用方法       Case具有两种格式。简单Case函数和Case搜索函数。      --简单Case函数      CASE sex       WHEN '1' THEN '男'

CentOS报错make: *** [fuzz-commit-graph.o] Error 1

目录 一、问题描述二、解决方法 一、问题描述 CentOS 7 下执行 make profix=/usr/local/git 命令时报错: [root@server-c00ef8c3-710d-4708-9cde-2c864e7c03e2 git-2.35.1]# make profix=/usr/local/gitCC fuzz-commit-graph.oIn fil

Kivy tutorial 008: More kv language

Kivy tutorial 008: More kv language – Kivy Blog Central themes: Event binding and canvas instructions in kv language 中心主题: 事件绑定 和 kv语言里的画布结构 This tutorial directly follows on from the previous, so s

阅读笔记——《Large Language Model guided Protocol Fuzzing》

【参考文献】Meng R, Mirchev M, Böhme M, et al. Large language model guided protocol fuzzing[C]//Proceedings of the 31st Annual Network and Distributed System Security Symposium (NDSS). 2024.(CCF A类会议)【注】本

从同—视角理解扩散模型(Understanding Diffusion Models A Unified Perspective)

从同—视角理解扩散模型 Understanding Diffusion Models A Unified Perspective【全公式推导】【免费视频讲解】 B站视频讲解 视频的论文笔记 从同一视角理解扩散模型【视频讲解笔记】 配合视频讲解的同步笔记。 整个系列完整的论文笔记内容如下,仅为了不用—一回复,共计14个视频讲解笔记,故设定了一个比较低的价格(粉丝仅6毛),大家可以自取。

C/C++打假:条件分支语句switch..case效率比if..else高?

很久很久以前,有人教导我说条件分支大于4条时,switch..case效率会比if..else高,条件分支为10条时,switch..case效率会比if..else快一倍不止。随着条件分支越多,效率差异越大。今日得闲,我做了个测试来验证这条经验的真假。以下分3个case对比这两种条件选择分支的性能,每个case重复两遍以上确保测试数据稳定。测试所用系统为Ubuntu 22.04