ALBERT: 自监督语言表示的轻量级BERT

2023-12-25 05:08

本文主要是介绍ALBERT: 自监督语言表示的轻量级BERT,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 引言
    • 词向量因式分解(Factorized embedding parameterization)
    • 跨层参数共享(Cross-layer parameter sharing)
    • 内部句子一致性损失(Inter-sentence coherence loss)

【Reference】
ALBERT: A LITE BERT FOR SELF-SUPERVISED LEARNING OF LANGUAGE REPRESENTATIONS


引言

预训练模型使得一些缺乏训练数据的下游任务表现良好,大力出奇迹,大型网络是获得SOTA性能的关键,但随着模型大小的增加,内存占用和训练时间都会增加。那么是否有比大型模型更简单、性能更好的模型?

ALBERT使用两种缩减参数技术:词向量矩阵分解、跨层参数共享。参数缩减可看做为正则化技术,并未严重降低模型性能,提升了模型泛化能力。与BERT-Large模型使用一样的配置,参数量下降18x,速度提升1.7x

ALBERT引入句序预测自监督方法,关注句子内部的一致性,我们通过实验比较了句序预测(Sentence-Order Prediction,SOP)任务和预测下一句是否被交换(Next Sentence Prediction,NSP)任务损失的变化,发现SOP任务更具有挑战,而且SOP预训练的模型在下游任务中更有用。

与BERT结构类似,ALBERT使用Transformer Encoder和GELU非线性激活函数,相比BERT模型的性能如下:

在这里插入图片描述

词向量因式分解(Factorized embedding parameterization)

在BERT与其改进模型XLNet和RoBERTa中,词嵌入维度 E E E和隐藏层维度 H H H相等。词嵌入旨在学习语境无关表示,而隐藏层旨在学习语境相关表示。因此,为更有效里面全部模型参数,我们希望能够解开 E E E H H H绑定,使得 H ≫ E H\gg E HE
通常情况下,模型输入词典大小 V V V很大,如果 E ≡ V E\equiv V EV,当我们需要增加 H H H的大小时,意味着也要增加 E E E的大小,模型参数将会剧增。因此,我们通过将词嵌入矩阵因式分解为两个小矩阵,当 H ≫ E H\gg E HE时,参数量明显降低:
O ( V × H ) → O ( V × E + E × H ) O(V\times H)\quad \to\quad O(V\times E + E\times H) O(V×H)O(V×E+E×H)

在这里插入图片描述

跨层参数共享(Cross-layer parameter sharing)

有多重参数方式,如共享FFN参数、共享注意力层参数等,ALBERT默认共享所有跨层参数。
在这里插入图片描述

内部句子一致性损失(Inter-sentence coherence loss)

BERT的NSP任务用于提高下游如自然语言推理任务,我们猜想NSP主要无效的原因是,NSP任务倾向于主题预测,相比MLM(Mask Language Modeling)任务过于简单。ALBERT使用SOP任务预测句序,以避免进行主题预测,SOP任务使用同一上下文的两个连续句子作为正例,跌倒顺序的句子作为负例,这有助于模型学习细粒度特性。
在这里插入图片描述

这篇关于ALBERT: 自监督语言表示的轻量级BERT的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/534343

相关文章

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

C语言 | Leetcode C语言题解之第393题UTF-8编码验证

题目: 题解: static const int MASK1 = 1 << 7;static const int MASK2 = (1 << 7) + (1 << 6);bool isValid(int num) {return (num & MASK2) == MASK1;}int getBytes(int num) {if ((num & MASK1) == 0) {return

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

如何确定 Go 语言中 HTTP 连接池的最佳参数?

确定 Go 语言中 HTTP 连接池的最佳参数可以通过以下几种方式: 一、分析应用场景和需求 并发请求量: 确定应用程序在特定时间段内可能同时发起的 HTTP 请求数量。如果并发请求量很高,需要设置较大的连接池参数以满足需求。例如,对于一个高并发的 Web 服务,可能同时有数百个请求在处理,此时需要较大的连接池大小。可以通过压力测试工具模拟高并发场景,观察系统在不同并发请求下的性能表现,从而

C语言:柔性数组

数组定义 柔性数组 err int arr[0] = {0}; // ERROR 柔性数组 // 常见struct Test{int len;char arr[1024];} // 柔性数组struct Test{int len;char arr[0];}struct Test *t;t = malloc(sizeof(Test) + 11);strcpy(t->arr,

C语言指针入门 《C语言非常道》

C语言指针入门 《C语言非常道》 作为一个程序员,我接触 C 语言有十年了。有的朋友让我推荐 C 语言的参考书,我不敢乱推荐,尤其是国内作者写的书,往往七拼八凑,漏洞百出。 但是,李忠老师的《C语言非常道》值得一读。对了,李老师有个官网,网址是: 李忠老师官网 最棒的是,有配套的教学视频,可以试看。 试看点这里 接下来言归正传,讲解指针。以下内容很多都参考了李忠老师的《C语言非

C 语言基础之数组

文章目录 什么是数组数组变量的声明多维数组 什么是数组 数组,顾名思义,就是一组数。 假如班上有 30 个同学,让你编程统计每个人的分数,求最高分、最低分、平均分等。如果不知道数组,你只能这样写代码: int ZhangSan_score = 95;int LiSi_score = 90;......int LiuDong_score = 100;int Zhou

C 语言的基本数据类型

C 语言的基本数据类型 注:本文面向 C 语言初学者,如果你是熟手,那就不用看了。 有人问我,char、short、int、long、float、double 等这些关键字到底是什么意思,如果说他们是数据类型的话,那么为啥有这么多数据类型呢? 如果写了一句: int a; 那么执行的时候在内存中会有什么变化呢? 橡皮泥大家都玩过吧,一般你买橡皮泥的时候,店家会赠送一些模板。 上

linux中使用rust语言在不同进程之间通信

第一种:使用mmap映射相同文件 fn main() {let pid = std::process::id();println!(