大模型扫盲系列——大模型实用技术介绍_大模型底层技术是哪些

2024-06-21 13:12

本文主要是介绍大模型扫盲系列——大模型实用技术介绍_大模型底层技术是哪些,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Gemma模型架构和参数计算

近期,大模型相关的技术和应用层出不穷,各个方向的论文百花齐放,底层的核心技术是大家公认的精华部分。本文从技术的角度聚焦大模型的实战经验,总结大模型从业者关注的具体方向以及相关发展,帮助打算参与到大模型工作的人高效上手相关工作。

基座模型参数

在动手实践之初,首要任务便是选取一款市场上表现卓越的基座模型,为各种任务打下坚实的基础。在这个领域,OpenAI的ChatGPT-4以其独特的优势领跑,一时间,普通企业难以望其项背。因此,其他顶尖科技公司不得不寻找新的道路,争相进入开源领域,竞争打造出最强效果的大型模型。随着大模型技术成为热门趋势,无论是从学术论文的频繁引用还是商业应用实践来看,业界对这些基座模型的效果已达成广泛共识。

目前,业内普遍认可且实用性最高的四个基座模型分别为:Meta的Llama系列,被誉为欧洲"OpenAI"的Mistral AI所开源的Mistral系列,国内表现优秀的Qwen系列,以及最近发布、在同等参数级别中表现最佳的开源模型——Google的Gemma系列。本文将从模型的参数、网络结构和效果等多个方面进行深入分析,旨在提供一套适用于理解和评估任何开源模型的方法论和关注点。
Gemma:

谷歌发布了一系列的Gemma模型(如下表格),以最常用的7B模型为例子具体剖析:

图片

从模型卡(model card)中,能快速了解整个模型的架构以及在现有公开数据集上训练的效果,这里用大部分篇幅介绍计算模型参数,掌握这步计算对模型结构深入理解以及模型部署的推理优化都有非常重要的意义。

图片

图1

参数估算

7B的意思是模型参数的数量为70亿,这个数据包含嵌入层(Embedding)的参数,模型网络结构中的权重(weight)和偏差(bias)的总和,从官方发布的报告(https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf)来看,所有参数总和应该是85亿(Table2中嵌入层参数+非嵌入层参数),这里的7b命名可能也是考虑到与差不多量级的Llama2进行对比。

在这里插入图片描述

在这里插入图片描述

对于Table 1的7B模型,结合图1中的config.json文件中的参数得到具体计算流程

Part 1:嵌入层参数(Embedding Parameters)

  • 词汇嵌入(vocab embeddings):vocab_size dmodel
  • 位置嵌入(position embeddings):max_position_embeddings dmodel
  • 嵌入层总参数量:(vocab_size + max_position_embeddings) dmodel

注意Table 1中的dmodel就是指隐藏层的维度大小,对应json文件中的hidden size,而Gemma采用的是RoPE的位置编码方式,所以实际上位置嵌入的参数不算入嵌入层的参数,所以最后代入具体对应的数值有:

256128 * 3072 = 786,825,216

在这里插入图片描述

在这里插入图片描述

图2

Part 2:非嵌入层参数(Non-Embedding Parameters)

这次Gemma使用的是Multi-Head attention,由上图得知Transformer结构由多个相同的层组成(Gemma是decoder-only模型,我们只需要关注decoder部分的网络结构就行),每个层分为三大部分:

  • 多头注意力层(Multi-head attention)
  • 前馈网络(Feed-forward network)
  • 归一化层(Layer normalization)

注意力机制层参数(每层):

在这里插入图片描述

  • 查询(query)权重:dmodel * dq *在这里插入图片描述

  • 键(key)权重:dmodel * dk * 在这里插入图片描述

  • 值(value)权重:dmodel * dv * 在这里插入图片描述

  • 注意力输出权重:dmodel * dkqv * 在这里插入图片描述

注意力层总参数量:3* 在这里插入图片描述

  • dmodel * dkqv + (dmodel * 在这里插入图片描述* dkqv)

这里注意一下注意力输出权重的计算是用Multi-head Attention的方式,从图2的Multi-Head Attention组件结构可知,Q、K、V做完 Scaled Dot-Product Attention之后,将得到的加权值(Values)通过一个线性变换来生成最终的输出。在一个典型的Transformer模型中,每个头会输出一个dmodel维的向量,然后把所有头的输出被拼接起来,形成一个更长的向量,这个向量随后会通过一个线性层的权重矩阵W_O实现的,它的维度是dmodel*dmodel,以将拼接后的向量重新投影回原来的维度。

7B一共是16个头,以及每个头是256维,所以最后的结果经过化简近似于:

4 * dmodel * 在这里插入图片描述= ‬50,331,648

前馈网络层参数(每层):

  • gate_proj 的权重:intermediate_size * dmodel
  • up_proj 的权重:dmodel * intermediate_size
  • down_proj 的权重:intermediate_size * dmodel

前馈网络层总参数量:intermediate_size * dmodel * 324576 * 3072 * 3 = 226,492,416

层归一化参数(每层):

  • Gemma用了RMSNorm,源码中只有一个weight缩放参数进行学习
  • 每个参数量:dmodel

每个decoder模块有两个归一化层,所以总参数量:2 * 1 * dmodel

3072 * 2 * 1 = 6144

可以看到这个参数太小了,在近似计算中可以忽略不计。

非嵌入层总参数量(所有层):

  • 每层的总参数量:注意力层总参数量 + 前馈网络层总参数量 + 层归一化总参数量
  • 所有层的总参数量:每层的总参数量 * num_hidden_layers

最后可以得到非嵌入层参数:(50,331,648‬ + 226,492,416 + 6144 ) * 28 = 7,751,245,824‬‬

LM Head参数:
在这里插入图片描述

这部分参数是模型参数最后一个组成部分,模型的最后一层是一个分类头,这层主要功能就是输出对所有tokenizer分类的概率,一般都是由一个线性层构成,也是模型最后输出结果的层。

从代码可以知道,这层的参数量是:3072 * 256128 = 786,825,216

总参数量: 嵌入层参数 + 非嵌入层参数 + LM Head

786,825,216‬ + 7,751,245,824‬‬ + 786,825,216 = 9,324,896,256‬‬ ≈ 9.3b

最后我们可以看到显式的参数是在9.3b左右,但由于使用了权重共享(weight tying),最后整体参数在8.5b左右,这种类似操作也出现在GPT-2 和XLNet等模型中,利用输入嵌入层和最后输出的LM Head分类层中共享相同的权重,总的来说还是比Llama2要大一些。

从这个计算步骤下来,会发现基本上理清楚了Gemma的整体模型结构,这里再从多方面对模型结构进行一个总结,同时也可以当做回顾主流大模型结构的一个总结。

基座模型架构

Attention形式

在这里插入图片描述

Gemma7B用的是最经典的Transformer论文中的Multi-head attention(MHA)结构,而2B版本则用了Multi-Query attention(MQA)的结构,这也是基于在较小规模下的性能和计算效率考虑 。标准的注意力机制中,查询(query)、键(key)和值(value)是三个核心组件,计算的是一个查询和所有键之间的相似度,然后这个相似度被用来加权相应的值。而在Multi-query attention中,可以同时处理一组查询,让所有的头之间共享同一份 Key 和 Value 矩阵,每个头只单独保留了一份 Query 参数,从而可以共享键和值的表示,提高计算效率。

另外还有比较常见的是Grouped-query attention(GQA),是MQA的一个变形结构,这个结构出来的原因也是因为实验表明MQA在训练的质量上会其实相对于MHA会有衰减。该结构简单来说可以理解为Multi-head attention和Multi-Query attention的"中间结构",相对于MHA的每个query都有其各自的Key和Value,以及MQA的所有query都共享一份Key和Value,GQA则是把query进行分组,每个组的query共享一份key和value,这种方式巧妙的兼顾了训练的速度和质量的平衡。在论文中的实验数据可以看出,GQA在大多数任务上表现和MHA差不多,并且评估效果优于MQA。

在这里插入图片描述

由于MHA独立处理每个头部的查询(Q)、键(K)和值(V),它在训练时需要更多的参数和内存。MQA和GQA通过共享K和V的投影减少了参数量,从而减少了模型训练时的内存需求。当前主流的基模型基本上都是使用变形的attention机制,比如Llama2中最后选择了GQA给出的思路则是通过消融证明了GQA在平均性能上与MHA相当,且优于MQA。GQA在为更大模型的推理缩放提供效率的同时,还考虑了分布式设置中的操作考虑,强调了在不损害模型性能的前提下提高计算效率的战略采用。

Tokenizer算法

当前大语言模型的效能很大程度上依赖于其能力去理解和处理自然语言,而这一过程的基石就是有效的文本tokenization。Tokenization是将文本分解为更小单元(如单词、子词或字符)的过程,这些单元随后被用于模型训练。但是切分的时候需要考虑以什么粒度去切分?

\1. 尽可能避免Out-of-vocabulary(OOV)现象带来的问题,这个问题可以用更细粒度的字符级去解决,只要对词再分的足够细,就可以表达一些生僻词;但是同时会带来序列长度的增长,导致计算成本变大很多。

\2. 又需要高效地来表示所有的语义,比如用小规模的词库也能表达一些长尾的生僻字;以及相似词之间的关系,不会导致相似词语义上的割裂。

这时就需要平衡词粒度(word)和字符粒度(character)的方法来进行分词,也就是子词(subword)粒度的分词,该方法核心理念是,**常见词保留完整形态,而较为罕见的词则分解为更小的子单元,以此实现对token空间的高效共享,通过一定程度拆解的方式解决性能和效果的平衡。**当前Byte-Pair Encoding (BPE)、Byte-level BPE 、Unigram language model和WordPiece是构建大型语言模型时最主流的四种subword分词方式。

  • WordPiece (BERT,DistilBERT,MobileBERT,Funnel Transformers,MPNET) 将单词分解为更小的单元,这些单元要么是整个单词,要么是子单词。通过迭代过程逐渐构建词汇表。在每一步,它选择合并词汇表中的一对符号,这对合并将最大限度地减少语言模型的损失(通常是基于n-gram频率),通过合并频繁共现的字符对来构建词汇。实践中会看到“##”,表示是前一个token的延续,比如Tokenizer会分成“To”, “##ken”,“##izer”这三个表示。
  • Byte-Pair Encoding(GPT系列,LLaMA系列,ChatGLM-6B,Baichuan) 通过迭代合并最常见的字节对来减少序列长度,提高编码效率,有助于有效处理未知词汇和稀疏数据问题,提高模型的泛化能力。
  • **Byte-level BPE (RoBERTa)**在BPE基础上,以字节为基本单位来构建词汇表,而非传统的字符。该过程从将文本以UTF-8格式编码开始,其中每个符号可能占用1至4个字节。随后,在这些字节序列上应用BPE算法,执行基于字节级别的相邻合并操作,以此方式优化词表的生成和文本的表示。这种方法不仅提高了模型对文本的理解能力,还增强了对多种语言及其特殊字符的支持,从而为模型提供了更丰富、更精确的文本表示方式。
  • Unigram language model (AlBERT,T5,mBART,Big Bird,XLNet) 基于单个词的出现概率来进行文本分割,它通过统计大量文本数据来预测每个可能的单词(包括子词)的出现频率或概率。在分词过程中,算法尝试将句子分解成一系列单词或子词,来最大化整个句子的概率,适用于处理未知或罕见词汇。通过剪枝最不可能的分割来达到最终的词汇表。

这里提一下,实践中主流的大模型都是用的SentencePiece处理Tokenizer,这个算法工具包是支持BPE和unigram两种算法,为Tokenizer处理提供了极大的灵活性,也基本上是谷歌家族标配的处理方式。

为了方便读者对比各个算法的差异,下图是对同一句话不同Tokenizer算法得到的结果,这个句子包含了大小写、标点符号、特殊符号、两个空格和数字,可以当做一个典型case供大家对比:

在这里插入图片描述

在这里插入图片描述

Gemma这次延用了PaLm中与SentencePiece兼容的tokenizer,报告中说这同时也是从Gemini模型的词库中取了一部分。这份词库的tokenizer是完全来源于训练数据,所以整体训练的时候会更加高效。另外,整个词汇表是完全无损和可逆的,这意味着词汇表中完全保留了空格(对代码类的数据尤其重要),词汇表外的 Unicode 字符被拆分为 UTF-8 字节,每个字节都有一个词汇标记。数字则会被拆分为单独的数字标记,例如123.5→1 2 3 . 5。总体来看就是tokenizer做的粒度更细,且更倾向于保留原始数据的语义。并且从词表量级角度,相对于其他基模型(Llamma2 7b和mistral 7b都是32000)所用的256k量级的tokenizer词汇表还是大很多的,猜测也是对比同等量级模型效果好的原因之一。

在这里插入图片描述

在这里插入图片描述

向量位置编码

由于主流的语言模型基本都是基于Transformer结构,其中的自注意力机制造成它们本身不处理输入数据的顺序,所以位置编码成为了提供序列中每个元素位置信息的关键手段,它们能使模型能够捕捉到序列中单词的顺序信息。位置编码通过增加额外的信息到每个单词的表示中,使模型能够区分单词在句子中的位置,从而理解词序和语法结构,这对于理解句子含义至关重要(见下面例子)。这次Gemma中采用的是被多个主流模型验证兼顾处理长序列的能力,同时保持较低的计算复杂度的旋转位置编码Rotary Positional Embeddings (RoPE)。

在这里插入图片描述

首先我们回顾一下主要位置编码的方式,一种是之前Bert和Transformer用的绝对位置编码,Bert把位置的Embedding作为模型训练的一部分,通过训练学习的方式来表征每个token的位置信息,该位置向量只与输入的位置有关,这类编码方式理解起来非常直观,实现也比较容易。但是这里有一个明显的缺陷就是对于模型处理长序列的能力有限,由于绝对位置编码是预先定义的,这可能导致模型难以泛化到比训练时见过的序列更长的情况。也就是所说的没有外推能力。这就会影响模型捕捉序列内长距离依赖关系的能力,特别是会在处理复杂的语言结构或需要细腻理解序列内关系的任务上,会表现比较差。

后来Transformer又进行了优化,利用三角函数的周期性来表示位置编码(Sinusoidal Positional Encoding),本质可以总结成,通过在不同维度应用正弦和余弦函数的不同频率,产生了能够代表不同位置的高维位置向量。

在这里插入图片描述

公式中的pos代表当前token在句子中的位置,dmodel与上文算参数的表示是一个意思,就是代表总的向量维度,i则代表其中一个向量维度。

论文中提到使用这种方式主要原因是在实验效果差不多的情况下,三角函数位置编码对训练中没见过的词也有很好的外推能力。

RoPE Embeddings

然而以上编码本质还是绝对位置的形式,都还不够高效,接下来就要重点说到Gemma及现在主流的基模型中都会使用的相对位置编码方式,其中主流是Rotary Position Embedding,RoPE,这种方式是集合相对和绝对编码的优势设计出来的,通过对词嵌入进行旋转变换,以一种高效且紧凑的方式捕捉序列中元素的相对位置信息。用原作者概括的话就是“配合Attention机制能达到‘绝对位置编码的方式实现相对位置编码’的设计”,这个计算是在模型的自注意力(Self-Attention)计算步骤中进行。在这一步骤中,模型会根据序列中各元素之间的相对位置关系,动态调整它们之间的注意力权重,从而有效捕捉和利用位置信息来理解文本内容。与传统的位置编码方法相比,RoPE 的优势在于它能够在不显著增加计算复杂度的情况下,有效处理长序列数据,并保持了对相对位置关系的敏感性。这种方法在提高模型对长距离依赖关系捕捉能力的同时,还能减少模型训练和推理过程中的资源消耗。

基本原理:

核心:利用数学上的旋转操作来模拟单词嵌入随位置变化的动态,进而在Attention计算中隐式地表达单词之间的相对位置关系。

这里以2维的向量作为例子进行说明,方法可以直接推广到高维。
在这里插入图片描述

旋转操作:

\1. 给定一个二维的查询或键的向量(x1,x2),它代表未经位置编码的原始嵌入。

\2. 位置m对应的旋转矩阵Rm可以表示为:

在这里插入图片描述

其中,在这里插入图片描述是与位置 m 相关的旋转角度。旋转矩阵Rm是线性的,这意味着旋转操作可以通过矩阵乘法应用于向量上,保持了向量之间的线性关系。实际中,即使在长句子中,模型也能够有效地理解和利用单词之间的相对位置信息。
在这里插入图片描述

  • 第一行 x1’=x1cos(在这里插入图片描述)-x2sin(在这里插入图片描述)计算的是旋转后向量的x1坐标。
  • 第二行 x2’=x1sin(在这里插入图片描述)+x2cos(在这里插入图片描述)计算的是旋转后向量的x2坐标。

旋转后的向量(x1,x2)表示了经过位置编码的查询或键,即原始向量绕原点旋转角度在这里插入图片描述后的新位置。

在这个过程中,每一维度的查询或键都被视作二维空间中的点,并通过相应的旋转矩阵进行旋转。对每个位置应用相应的旋转矩阵,模型可以嵌入单词的相对位置信息,使得Attention机制能够利用这些信息来更好地理解单词之间的关系。同时三角函数本身具有的周期性性质在处理长序列时表现出更高的灵活性。

最后再用一个生活中的例子说明RoPE设计哲学:

想象一下,你在一个广阔的旋转餐厅里用餐。你的位置是固定的,但是通过旋转,你可以看到餐厅里的每个角落。这和在语言处理中理解单词的“位置”有些相似。每个单词都像是餐厅里的一个顾客,他们的“位置”对于他们如何相互交流是非常重要的。

在模型理解语言时,我们需要告诉它每个单词不仅是什么,还在哪里。传统的做法就像是给每个顾客一个编号,号码越小表示越接近餐厅的入口。这种方法很直接,但是当餐厅扩大,或者当顾客移动位置时,这些编号就不太有用了。

RoPE这种编码方式,就像是通过观察顾客是如何相对于入口旋转来定位他们。而不是说“这个顾客在第5号桌”,我们会说“从入口开始,逆时针转90度,你会看到这个顾客。”这样的好处是,无论餐厅多大,或者顾客如何移动,描述都是有效的。这也意味着即使在餐厅扩建之后,我们依然能够描述新顾客的位置。

在实际的语言模型中,RoPE允许模型更好地理解单词之间的关系,就像是能够理解顾客之间在旋转餐厅中的相对位置一样。即使句子变得很长,或者模型遇到了新的、更长的句子,这种编码方式仍然能帮助模型准确地“看到”每个单词的位置,就像你能够看到餐厅中每个顾客的位置一样。

激活函数

模型中的激活函数主要目的是为网络引入非线性,使得神经网络能够学习和模拟复杂的、非线性的函数映射。如果没有激活函数,即使网络拥有很多层,每层有很多神经元,网络整体仍然只能表示线性的函数关系,极大限制了网络模型的表达能力和复杂度。通过引入非线性激活函数,神经网络能够学习到更加复杂的数据模式,特别大模型这类参数量很大的复杂模型,选择合适的激活函数对模型学习数据非线性表达至关重要。以下主要介绍基模型主流的激活函数:
在这里插入图片描述

1. ReLU(Rectified Linear Unit)

定义:

在这里插入图片描述

从公式知,输入是正的,则直接输出该值;如果输入是负的,则输出0。ReLU因其简单性和效率在深度学习中非常流行。它有助于解决梯度消失问题,加速了神经网络的收敛,并且计算简单。

特点:

  • 简单高效:直接将负值设置为0,计算上非常高效。
  • 解决梯度消失问题:对于正输入,梯度恒为1,因此不会发生梯度消失问题。
  • 死亡ReLU问题:如果输入为负,则梯度为0,该神经元可能再也不会更新,称为“Dead ReLU”。
2. GeLU(Gaussian Error Linear Unit)

定义:

在这里插入图片描述

其中P(X<=x)是基于高斯分布的输入小于输出的概率,也可以用误差函数(erf)来表示。原理是输入通常是呈现正态分布,通过输入的概率计算决定是否置为0(被丢弃)。如果有时候为了计算快速,也可以用近似的计算:

在这里插入图片描述

GeLU通过引入输入数据的概率分布,可以自适应地调整其非线性程度,从而在某些任务中提供比ReLU更好的性能。

特点:

  • 自适应非线性:根据输入数据的分布调整激活函数的形状。
  • 解决梯度消失问题:对于大部分输入值,其导数不为零,有助于缓解梯度消失问题。
  • 计算复杂度较高:相对于ReLU,GeLU的计算更复杂。

目前大模型更流行的是门控类型的激活函数,首先简单补充一下最基础的GLU(Gated Linear Unit)。

在这里插入图片描述

GLU由两部分组成,a和b,其中a是原始输入,b用于计算门控信号。注意这里的a****和b其实都是输入x的变换,始终输入就一个x(见下面代码),门控信号是通过对b使用Sigmoid函数得到,这个信号介于0和1之间,然后与a相乘(⊗表示逐元素乘法),从而动态调整每个元素的传递。GLU允许部分信息根据门控信号的强度传递,而抑制其他信息。

3. SwiGLU(Switched Gated Linear Unit)

定义:

SwiGLU是GLU的一个变体,它将输入分为两部分,一部分通过线性变换,另一部分由新的线性变换(通过权重 W b W_b Wb​和偏置 B b B_b Bb​,先对b应用一个额外的线性变换)然后套个sigmoid函数得到,允许门控信号不仅仅依赖于原始输入的状态,还依赖于通过训练学到的变换,使得模型可以学习到更加复杂的非线性表示。

特点:

  • 提高模型复杂度:通过门控机制,模型可以捕捉更复杂的特征。
  • 灵活性:门控机制的引入增加了激活函数的灵活性。
  • 计算复杂度增加:由于增加学习参数W和b,SwiGLU的计算成本更高。
4. GeGLU(Gated Linear Unit with Gaussian Error Linear Unit)

在这里插入图片描述

GeGLU是GeLU的一个变体,结合了门控机制。它通常包括两个并行的分支,一个应用线性变换,另一个应用GeLU变换,然后将两者相乘。GeGLU综合了GeLU的自适应性和门控机制的优点,旨在提供更加强大和灵活的激活功能。

特点:

  • 增强表示能力:通过结合GeLU和门控机制,提供更强大的模型表示能力。
  • 自适应性:继承了GeLU的自适应性质。
  • 计算复杂度:同样的,计算成本较高,特别是在大型模型中。

以下是这四种激活函数的简要代码实现:

在这里插入图片描述

在Gemma中就是采用GeGLU Activations,从代码中可以看到,门控机制是通过输入数据 x x x的变换作为门控信号的生成方式,然后再与另一个变换的输入数据进行元素级别的乘法操作,最终通过另一个线性变换调整输出维度。

关于使用选择问题,提出GLU变形的作者在T5模型上做过不同激活函数的消融实验效果对比,从这个实验看,GeGLU和SwiGLU综合来看是效果最好的,这两个激活函数也是目前主流基座大模型被采用的。
在这里插入图片描述
在这里插入图片描述

归一化方式

模型中使用归一化(Normalization)技术,主要是为了提高深度学习网络的训练效率、稳定性和泛化能力。归一化通过对输入数据或网络层的激活值进行处理,使其分布更加规范,从数学的角度来看,这个操作有助于优化损失函数的几何特性。没进行归一化的数据可能导致损失函数表面出现尖锐的曲率,这使得找到最优解变得困难。归一化有助于使损失函数的等高线更加规则,从而使梯度下降等优化算法更容易找到全局最小值。

此外,对于深度学习模型来说,每一层的输出都依赖于前一层的参数。如果不进行归一化,这种依赖关系可能导致激活值在网络深层中累积偏差,归一化通过规范这些值,确保了网络深层依然可以接收到有效的梯度信息,提高模型学习效率,不会导致梯度爆炸或消失等问题。接下来介绍一下主流的大模型使用的归一化方式。

Batch Normalization (Batch Norm)

Batch Norm核心思想是在网络的输入的每一个batch上应用归一化,使得该批数据输入分布保持相同。由于其与图像数据特性比较契合,特别是在处理大规模图像数据集和训练深层网络时,通常会有比较好的效果。

公式:

假设一个层的输入为X={x1,x2,…,xm},其中m是批量大小。Batch Norm 归一化步骤如下:

  • 计算批量均值:在这里插入图片描述

  • 计算层方差:在这里插入图片描述

  • 归一化:在这里插入图片描述,其中ϵ是一个很小的数,防止分母为零;

  • 位移和缩放:在这里插入图片描述,其中γ和β是可学习的参数,用于恢复归一化可能丢失的表示能力。

但是批归一化也有一些明显问题。比如对批量大小敏感,较小的批量大小会导致估计的均值和方差不准确,影响模型性能;另外在类似语言的可变长序列模型中应用不够灵活,因为批的每条样本序列长度必须保持一致,在语言的样本中经常会有batch中句子长短不一,如果用这个方法则需要对token空的对应位置进行padding操作,导致效率低下。所以现在很多语言模型会采用Layer Normalization,来解决了对批量大小敏感的问题,通过在特征维度上进行标准化而不是批量维度,使得它适用于小批量和可变长度序列的处理。

Layer Normalization (Layer Norm)

主要用于解决 RNNs 和其他序列模型中的训练问题。与 Batch Norm 最大的不同,Layer Norm 在单个样本的所有维度的输入上进行归一化,而不是在一个批量的维度上进行归一化。

公式:基本与batch norm步骤一样,最大区别就是输入的X的m维换成向量或者特征的维度数值,按照这个维度对每个x进行归一化计算。

值得注意的是,layer norm是针对单个样本的每个特征进行的(类比NLP任务中句子转换成的每个token),而不是跨样本。这使得 Layer Norm 特别适用于处理时间序列数据和循环神经网络,可以不依赖于批次的大小,稳定的处理不同时间步长的序列数据。

RMSNorm

本次Gemma采用的就是RMSNorm,这种方式基于每层激活的均方根(Root Mean Square)来进行归一化。RMS Norm 其实在简化 Layer Norm 的计算,通过省略均值的计算,直接使用方差进行归一化。虽然简化了计算,但是从效果上看,基本与Layer Norm持平,并且拥有更快的收敛速度(从计算角度容易理解)。

在这里插入图片描述

公式:

计算均方根(RMS)并进行归一化:

在这里插入图片描述

该公式简化了Layer Norm 的计算,降低了计算复杂度。也有文章(见Ref: 2102.11972)做了很多对比实验证明这种方式的有效性,从而使得众多主流大模型都采取这种方式。
在这里插入图片描述

总结

该文旨在带领想要深入了解大模型技术领域的同学进行一个回顾形式的总结,在大模型发展迅速的时代,以上的内容几乎是每个技术同学接触大模型的人必须掌握的知识,只有从原理出发理解大模型,才能更好地使用大模型为我们提供更大的价值。从微调大模型实践来看,这些知识也在细节上对能否成功训练好一个模型产生比较大的影响,很可能因为上面的某个点理解不到位,导致在具体任务上产生loss相关问题或者测试效果不及预期。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

这篇关于大模型扫盲系列——大模型实用技术介绍_大模型底层技术是哪些的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1081325

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

【专题】2024飞行汽车技术全景报告合集PDF分享(附原数据表)

原文链接: https://tecdat.cn/?p=37628 6月16日,小鹏汇天旅航者X2在北京大兴国际机场临空经济区完成首飞,这也是小鹏汇天的产品在京津冀地区进行的首次飞行。小鹏汇天方面还表示,公司准备量产,并计划今年四季度开启预售小鹏汇天分体式飞行汽车,探索分体式飞行汽车城际通勤。阅读原文,获取专题报告合集全文,解锁文末271份飞行汽车相关行业研究报告。 据悉,业内人士对飞行汽车行业

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验