NLU(Natural Language Understanding)IS HARD ! !!

2024-01-29 12:10

本文主要是介绍NLU(Natural Language Understanding)IS HARD ! !!,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

转自:https://github.com/fighting41love/hardNLU

NLU is hard!!!!!!

一直关注刘群老师的微博,常常看见他分享的一些好玩的#自然语言理解太难了#。 遂整理了NLU实在是太难了系列语句,大家一笑无妨。这里列举了一些关于分词、实体识别、知识图谱相关的语句,按照难度从低到高排列,最高难度的放在了最后(需要强大的知识图谱哦,欢迎大家把答案开在issue里)。

难度:※※ 两颗星
  1. 来到杨过曾经生活过的地方,小龙女动情地说:“我也想过过过儿过过的生活。”
  2. 来到儿子等校车的地方,邓超对孙俪说:“我也想等等等等等过的那辆车。”
  3. 赵敏说:我也想控忌忌己不想无忌。
  4. 你也想犯范范范玮琪犯过的错吗
  5. 对叙打击是一次性行为?
    image.png
  6. 《绿林俊杰》--林俊杰做错了什么?为什么要绿他
    image.png
  7. 那辆白车是黑车,那辆车到时是白车还是黑车啊!
  8. 能穿多少穿多少,到底是多穿点还是少穿点,怎么感觉冬天喝夏天不一样了
难度:※※※ 三颗星
  1. 写给卖豆芽的对联: 长长长长长长长,长长长长长长长。(solution: changzhangchangzhangchangchangzhang zhangchangzhangchangzhangzhangchang,zhangchangchangzhangchangzhangchang,zhangchangzhangchangzhangchangchang)
  2. 季姬寂,集鸡,鸡即棘鸡。棘鸡饥叽,季姬及箕稷济鸡。鸡既济,跻姬笈,季姬忌,急咭鸡,鸡急,继圾几,季姬急,即籍箕击鸡,箕疾击几伎,伎即齑,鸡叽集几基,季姬急极屐击鸡,鸡既殛,季姬激,即记《季姬击鸡记》。
  3. 石室诗士施氏,嗜狮,誓食十狮。氏时时适市视狮。十时,适十狮适市。是时,适施氏适市。施氏视是十狮,恃矢势,使是十狮逝世。氏拾是十狮尸,适石室。石室湿,氏使侍拭石室。石室拭,氏始试食是十狮尸。食时,始识是十狮尸,实十石狮尸。试释是事。《施氏食狮史》
  4. 去商店买东西一算账1001块,小王对老板说:“一块钱算了。” 老板说好的。于是小王放下一块钱就走了,老板死命追了小王五条街又要小王付了1000,小王感慨:#自然语言理解太难了# ​
  5. “碳碳键键能能否否定定律一” ​
  6. 书《无线电法国别研究》
    image.png
  7. 要去见投资人,出门时,发现车钥匙下面压了一张员工的小字条,写着“老板,加油!”,瞬间感觉好有温度,当时心理就泪奔了。心里默默发誓:我一定会努力的! 车开了15分钟后,没油了。。。
    image.png
  8. 他快抱不起儿子了,因为他太胖了
  9. 中文里面“大胜”和“大败”意思相同,刚发现英文里面也有类似的现象:valuable和invaluable都是表示非常有价值的意思
  10. How can I help you? 我能帮您什么?我怎么可以帮你!米国某酒店前台翻译机
    image.png
  11. 一家名为“宝鸡有一群怀揣着梦想的少年相信在牛大叔的带领下会创造生命的奇迹网络科技有限公司”走红网络,该公司全名长达39个字,还是一句主谓宾齐全的句子。宝鸡工商部门表示,该公司属合法注册,但名字太长不利于刻公章开发票
    image.png
  12. “一位友好的哥谭市民” “一位友好/的哥/谭市民”
    image.png image.png
难度:※※※※ 四颗星
  1. 宝宝的经纪人睡了宝宝的宝宝,宝宝不知道宝宝的宝宝是不是宝宝的亲生的宝宝,宝宝的宝宝为什么要这样对待宝宝!宝宝真的很难过!宝宝现在最担心的是宝宝的宝宝是不是宝宝的宝宝,如果宝宝的宝宝不是宝宝的宝宝那真是吓死宝宝了。
    image.png
  2. 中不不建交是受印度的影响,中不建交不受印度的影响。
难度:※※※※※ 五颗星
  1. NLP同学接招。这玩意非得配合超强知识图谱才能解决,非单纯NLP技术能够搞的定啊 image.png

一些搞笑的
  1. 台湾朋友发的[允悲]金门那边应对海漂死猪的防疫文件及吐槽
    image.png
  2. 高兴地日韩游。接连看到这样两条微博,感叹取名字太难了,#自然语言理解太难了#
    image.png image.png
  3. 于谦的父亲,是个卖参的人
  4. 叫我起床
    image.png
  5. 从小便相识,大便情更浓
    image
  6. 这宣传标语,从左往右读和从右往左读意思截然相反啊,到底是想让人干啥
一些easy的作为结尾
  1. 校长说衣服上除了校徽别别别的
  2. 过几天天天天气不好
  3. 看见西门吹雪点上了灯,叶孤城冷笑着说:“我也想吹吹吹雪吹过的灯”,然后就吹灭了灯。
  4. 今天多得谢逊出手相救,在这里我想真心感谢“谢谢谢逊大侠出手”
  5. 灭霸把美队按在地上一边摩擦一边给他洗脑,被打残的钢铁侠说:灭霸爸爸叭叭叭叭儿的在那叭叭啥呢
  6. 姑姑你估估我鼓鼓的口袋里有多少谷和菇!!
  7. “你看到王刚了吗”“王刚刚刚刚走”
  8. 张杰陪俩女儿跳格子:俏俏我们不要跳跳跳跳过的格子啦
  9. 骑车出门差点摔跤,还好我一把把把把住了
  10. 我朋友问父亲:我大大大(大大爷)和我姑姑谁年龄大?朋友爸爸说:你大大大大!
  11. 我背有点驼,麻麻说“你的背得背背背背佳
  12. 南京市长江大桥

http://www.taodudu.cc/news/show-8440760.html

相关文章:

  • 统计自然语言处理1 ------绪论(一)
  • python扩展库扩展名_pip命令也支持扩展名为.whl的文件直接安装Python扩展库。
  • 什么是合法的python表达式_3+4j不是合法的Python表达式。
  • 3.1 自然语言处理介绍
  • 《施氏食狮史》zt
  • 施氏食狮史
  • 施 氏 食 狮 史
  • 中文真伟大!竟然有只能看不能读的文章
  • 新年背景html5,辞旧迎新,新年背景图片
  • 既然有了字节流,为什么还要有字符流?
  • 2020-03-24:链表既然查询性能不足,在保持链表的基本特性的基础上,有没有办法改造下链表它的查询速度?
  • 长整型的最大值既然不是2^31-1,惊呆了
  • 既然防火墙能当路由器用,那为什么还要用路由器呢?
  • 既然敢于炮轰C++,那么Linus的C++造诣和编程水平如何呢?
  • 既然决定了,就义无反顾地去做吧!
  • 既然开始了就不要停止,既然结束了就不要后悔。
  • MapString,object也可以存list这样的数据,那么1map怎么遍历 2map能不能替代list 3既然map和list可以存下任何类型的数据,那么单map就可以存下任何类型的数据
  • 时间已经过去8年了,我的博客既然还在!为CSDN点赞!
  • 既然redis是单线程模型,,怎么会出现并发访问操作同一份数据呢?
  • 既然有了elasticsearch为什么还要用hadoop和spark呢?good question
  • 既然红黑树那么好,为啥hashmap不直接采用红黑树,而是当大于8个的时候才转换红黑树?...
  • 既然有http 请求,为什么还要用rpc(dubbo接口)调用?
  • 既然选择了这条路,就应该走下去!
  • c++使用了未初始化的局部变量怎么解决_既然C语言未初始化变量的值是未知的,那么能当“随机值”用吗?...
  • 既然有了 Docker, 为什么还要 Kubernetes ?
  • java main 线程既然被interrupt中断 为什么还会运行后面的
  • HashMap既然继承了AbstractMap为什么还要实现Map
  • 既然有接口为什么还需要抽象类?
  • 既然Mysql有内存引擎Memory,为什么还需要Redis
  • 既然Linux是基于UNIX的操作系统,那为什么UNIX收费而Linux免费?
  • 这篇关于NLU(Natural Language Understanding)IS HARD ! !!的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



    http://www.chinasem.cn/article/656859

    相关文章

    论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

    Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

    论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

    PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

    UML- 统一建模语言(Unified Modeling Language)创建项目的序列图及类图

    陈科肇 ============= 1.主要模型 在UML系统开发中有三个主要的模型: 功能模型:从用户的角度展示系统的功能,包括用例图。 对象模型:采用对象、属性、操作、关联等概念展示系统的结构和基础,包括类图、对象图、包图。 动态模型:展现系统的内部行为。 包括序列图、活动图、状态图。 因为要创建个人空间项目并不是一个很大的项目,我这里只须关注两种图的创建就可以了,而在开始创建UML图

    速通GPT-3:Language Models are Few-Shot Learners全文解读

    文章目录 论文实验总览1. 任务设置与测试策略2. 任务类别3. 关键实验结果4. 数据污染与实验局限性5. 总结与贡献 Abstract1. 概括2. 具体分析3. 摘要全文翻译4. 为什么不需要梯度更新或微调⭐ Introduction1. 概括2. 具体分析3. 进一步分析 Approach1. 概括2. 具体分析3. 进一步分析 Results1. 概括2. 具体分析2.1 语言模型

    Understanding the GitHub Flow

    这里看下Github的入门介绍    --链接 GitHub Flow is a lightweight, branch-based workflow that supports teams and projects where deployments are made regularly. This guide explains how and why GitHub Flow works

    HDU 1097 A hard puzzle(规律)

    题目: http://acm.hdu.edu.cn/showproblem.php?pid=1097 题意: 求a的b次方的最后一位。 题解: 直接从例子入手, 第一组数据 7 66,结果如下(只要最后一位所以模10) 7 9 3 1 7 9··· 循环节为4,即结果在4个数值内循环出现。 第二组数据 6 800,结果如下 6 6 6 6··· 循环节为1 ···

    [论文笔记]Making Large Language Models A Better Foundation For Dense Retrieval

    引言 今天带来北京智源研究院(BAAI)团队带来的一篇关于如何微调LLM变成密集检索器的论文笔记——Making Large Language Models A Better Foundation For Dense Retrieval。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 密集检索需要学习具有区分性的文本嵌入,以表示查询和文档之间的语义关系。考虑到大语言模

    教育LLM—大型教育语言模型: 调查,原文阅读:Large Language Models for Education: A Survey

    Large Language Models for Education: A Survey 大型教育语言模型: 调查 paper: https://arxiv.org/abs/2405.13001 文章目录~ 原文阅读Abstract1 Introduction2 Characteristics of LLM in Education2.1.Characteristics of LLM

    If an application has more than one locale, then all the strings declared in one language should als

    字符串资源多国语言版本的出错问题 假如你仅仅针对国内语言 加上这句即可 //保留中文支持resConfigs "zh"

    Large Language Models(LLMs) Concepts

    1、Introduction to Large Language Models(LLM) 1.1、Definition of LLMs Large: Training data and resources.Language: Human-like text.Models: Learn complex patterns using text data. The LLM is conside