李宏毅学习笔记14.ELMO、BERT、GPT

2024-03-14 11:50

本文主要是介绍李宏毅学习笔记14.ELMO、BERT、GPT,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 之前的做法
    • 独热编码
    • Word Class
    • Word Embedding
    • 缺点
      • 一词多义
  • Embeddings from Language Model(ELMO)
  • Bidirectional Encoder Representations from Transformers
    • Training of BERT
      • Approach 1:MaskedLM
      • Approach 2:Next Sentence Prediction
    • How to use BERT
      • Case 1
      • Case 2
      • Case 3
      • Case 4
    • Enhanced Representation through Knowledge Integration(ERNIE)
    • BERT 结果分析
  • Generative Pre-Training(GPT)

前言

这块内容也是2020版新加的内容,比较新。
Putting Words into Computers
Introduction of ELMO,BERT,GPT
本节内容是如何在电脑上表示(或是说让电脑理解)人类的文字。

之前的做法

独热编码

缺点:词汇之前没有关联。
在这里插入图片描述

Word Class

缺点:太粗糙,同样无法表达猫狗走兽和飞鸟的区别。
在这里插入图片描述

Word Embedding

在这里插入图片描述
这样的表示可以用于很多方面:
在这里插入图片描述

缺点

一词多义

A word can have multiple senses.
Have you paid that money to the bank yet?
It is safest to deposit your money in the bank.
The victim was found lying dead on the river bank.
They stood on the river bank to fish.
The four word tokens have the same word type.
In typical word embedding,each word type has an embedding.
第一句和第二句都是银行,第三句和第四句一样
但是语义是非常丰富的,例如:
The hospital has its own blood bank.
这里还是不是银行的意思?
在这里插入图片描述
应该用上下文词向量来解决这个问题:
Contextualized Word Embedding
· Each word token has its ownembedding(even though it has the same word type)
· The embeddings of word tokens also depend on its context.
在这里插入图片描述
在这里插入图片描述
尽管下面两个bank的意思会不一样,但是在向量表示上应该比较相近。解决这个问题就是ELMO了:

Embeddings from Language Model(ELMO)

ELMO是芝麻街动画片的人物名
在这里插入图片描述
https://arxiv.org/abs/1802.05365
RNN-based language models (trained from lots of sentences)不需要标签就可以训练,只要有句子就可以:
在这里插入图片描述
在这里插入图片描述
红色框部分就是上下文相关的词向量表示。当上下文不一样,这里的结果也会不一样:
在这里插入图片描述
在这里插入图片描述
上面的例子只学习了上文,要看下文就要训练一个反向的RNN
在这里插入图片描述
然后把前向和后向的结果concat起来即可
在这里插入图片描述
除了前向和后向之外,还可做deep
在这里插入图片描述
每层都有输出向量表示,ELMO是所有的隐藏层表示都要。这里不是简单的concat,而是做加权
在这里插入图片描述
在这里插入图片描述
这里的 α 1 , α 2 \alpha_1,\alpha_2 α1,α2是参数,是结合具体的下游任务学出来的(不同任务参数还不一样)。
在这里插入图片描述
上面是ELMO的结果,可以看到Token是没有加上下文的表示,LSTM 1表示通过第一层得到向量表示,LSTM 2是表示通过第二层得到的向量表示,下面是不同下游任务。可以看到不同任务权重不太一样。

Bidirectional Encoder Representations from Transformers

BERT是芝麻街动画片的人物名
在这里插入图片描述
·BERT=Encoder of Transformer
Learned from a large amount of text without annotation(和ELMO一样)
在这里插入图片描述
中文的话,用字比用词效果要好。

Training of BERT

Approach 1:MaskedLM

把15%的词替换为特殊的token(挖洞),然后让BERT把坑填回来。Predicting the
masked word。
在这里插入图片描述
如果两个词填在同一个地方没有违和感那它就有类似的embedding

Approach 2:Next Sentence Prediction

[SEP]:the boundary of two sentences
[CLS]:the position that outputs classification results
在这里插入图片描述
Approaches 1 and 2 are used at the same time.

How to use BERT

训练BERT后不但可以获得词向量表示,由于训练BERT一般和下游任务模型一起训练,所以还会获得别的信息,下面看四种使用BERT的方法。

Case 1

Input:single sentence.
output:class
Example: Sentiment analysis, Document Classification
在这里,Linear Classifier的参数是重头学习,BERT是微调。
在这里插入图片描述

Case 2

在这里插入图片描述
Input:single sentence
output:class of each word
在这里插入图片描述

Case 3

Input:two sentences
output:class
Example:Natural Language Inference
Given a"premise", determining whether a"hypothesis"is T/F/unknown.
在这里插入图片描述

Case 4

阅读理解
Extraction-based Question Answering(QA)(E.g. SQuAD)
在这里插入图片描述
这里的Answer中的 d s , d e d_s,d_e ds,de代表回答的起始词和结束词。
在这里插入图片描述
模型具体如下图:
红色向量和蓝色向量分别代表起始词和结束词,两个向量的维度和下面BERT输出的词向量维度一样。
先确定起始词
在这里插入图片描述
可以看到s=2
再确定结束词:
在这里插入图片描述
可以看到e=3,所以答案是: d 2 d 3 d_2d_3 d2d3

Enhanced Representation through Knowledge Integration(ERNIE)

ERNIE也来自芝麻街。。。而且还和BERT还是好朋友
整个模型专门用于中文。
在这里插入图片描述
因为用BERT来做的时候,只猜单个字太简单,于是有了ERNIE来猜整个词的。
在这里插入图片描述

BERT 结果分析

这里竖向是一个个NLP任务,然后横着的是通过BERT和对应任务进行联动训练以后,把BERT的24层每个单独抽取出来,进行加权相加(和ELMO一样的操作)得到的结果,可以看到各个NLP任务对应的BERT层有哪些最敏感,例如最上面的POS(词性分析)第11到13层的向量贡献最大。
在这里插入图片描述
BERT还有一个很牛的地方,在英文上训练,可以在中文上做应用。(Multilingual BERT)
在这里插入图片描述

Generative Pre-Training(GPT)

GPT是一个非常非常非常大的一个语言模型,看下参数量体会:
在这里插入图片描述
GPT是一个独角兽。
BERT是transformer的encoder,GPT是transformer的decoder部分。
下面看大概的运行过程。里面涉及到self-attention操作。
在这里插入图片描述
在这里插入图片描述
不断往下循环。
GPT很大,很神奇:
Zero-shot Learning:在没有训练的情况下GPT就可以做Reading Comprehension,Summarization,Translation
从可视化上面看,GPT貌似默认就会attention到第一个词。

这篇关于李宏毅学习笔记14.ELMO、BERT、GPT的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/808339

相关文章

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了

业务中14个需要进行A/B测试的时刻[信息图]

在本指南中,我们将全面了解有关 A/B测试 的所有内容。 我们将介绍不同类型的A/B测试,如何有效地规划和启动测试,如何评估测试是否成功,您应该关注哪些指标,多年来我们发现的常见错误等等。 什么是A/B测试? A/B测试(有时称为“分割测试”)是一种实验类型,其中您创建两种或多种内容变体——如登录页面、电子邮件或广告——并将它们显示给不同的受众群体,以查看哪一种效果最好。 本质上,A/B测

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学