[学习笔记]刘知远团队大模型技术与交叉应用L2-Neural Network Basics

本文主要是介绍[学习笔记]刘知远团队大模型技术与交叉应用L2-Neural Network Basics,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本节首先介绍神经网络的一些基本构成部分。然后简要介绍神经网络的训练方式。介绍一种基于神经网络的形成词汇的向量表示的方法。接下来继续介绍常见的神经网络结构:RNN和CNN。最后使用PyTorch演示一个NLP任务的一个完整训练的Pipeline。

神经网络的基本组成

单个神经元

(人工)神经元接受n个输入,1个输出。由参数w、b以及激活函数f来构成。
在这里插入图片描述

单层神经网络

多个单个神经元组成单层神经网络。
在这里插入图片描述

矩阵表示

在这里插入图片描述

多层神经网络

多个单层神经网络叠加在一起可以形成多层神经网络。
从前往后依次进行神经元的计算称为前向计算(传播)。
在这里插入图片描述

前向计算

前向计算过程中,中间神经元的输出结果被称为隐层输出,用符号h表示。
在这里插入图片描述

为什么要用非线性激活函数f?

如果没有非线性激活函数,那么多层神经网络本质上等价为单层神经网络。所以非线性激活函数对保持神经网络的层数,提高神经网络的表达能力是必要的。
在这里插入图片描述

常见的激活函数

sigmoid:将实数转化为(0,1)上的数
Tanh:将实数转化为(-1,1)上的数
ReLU:将负数全部转为0,正数保留
在这里插入图片描述

网络的输出层

输出层有多种形态,取决于模型的要求。以线性输出和sigmoid输出层为例。
线性输出层一般用于回归问题。
sigmoid输出层可以用于解决二分类问题:将隐层结果压到(0,1),然后这个值用于概率。
softmax输出层可以解决多分类问题:首先将隐层结果转化为我们分类的维度长的向量,然后经过softmax函数转化为概率向量。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如何训练一个神经网路

训练目标

回归问题,可以用最小化均方差作为训练目标。
在这里插入图片描述
分类问题,可以用最小化交叉熵作为训练目标。
在这里插入图片描述

随机梯度下降

沿着负梯度方向可以使函数值下降。
在这里插入图片描述

梯度

在这里插入图片描述

链式法则

在这里插入图片描述

反向传播

在实际深度学习场景中,对每个参数梯度的计算是通过反向传播算法实现的。
下面先介绍计算图的概念。

计算图

在这里插入图片描述

反向传播

在这里插入图片描述

反向传播(单个节点)

链式法则可以将上游梯度和下游梯度通过本地梯度链接起来。
在这里插入图片描述

词向量表示:Word2Vec

Word2Vec实际上有两类模型,一类是Continuous bag-of-words(CBOW),一类叫Continuous skip-gram。
在这里插入图片描述

滑动窗口

Word2Vec使用滑动窗口来构造训练数据。滑动窗口是指一段文本中连续出现的几个单词。窗口中间的词称为target,其他被称为context。
CBOW是根据context词来预测target词的模型。
skip-gram则相反,是根据target词来预测context词的模型。
在这里插入图片描述
例子
在这里插入图片描述

CBOW模型

bag-of-word假设不考虑context词的顺序对target词的预测的影响。
Never to late to learn这句话为例,应用CBOW模型。假设窗口大小为3,就是要用never,late来预测too。
下面是CBOW的网络结构。
在这里插入图片描述

Skip-Gram模型

下面是Skip-Gram的模型结构。
在这里插入图片描述

Full Softmax的问题

上面两个模型,最后都将转化为分类问题,最后经过映射到词表大小的频率向量中,最后再使用cross entropy loss来进行训练。
但是当词表非常大的时候,进行softmax后,进行反向传播的计算量非常大。所以需要想办法提高计算的效率。
下面介绍两种提高计算效率的方法:

负采样(Negative sampling)

想法是不对所有负例更新权重,而是采样其中一部分进行权重更新。采样的依据是词的频率,词频越高越容易被采样。
在这里插入图片描述
在这里插入图片描述
负采样使得最后需要更新的参数量下降很多,使Word2Vec模型计算成为可能。
在这里插入图片描述

分层softmax(Hierarchical softmax)

Word2Vec的其他训练技巧

Sub-Sampling

为了平衡常见词和罕见词出现的频率。一般而言,罕见词出现概率低,但是可能包含丰富语义信息,所以利用下面的公式计算去掉一些词的概率。具体来说,如果一个词出现频次高,那么这个词被去掉的概率就越高。
在这里插入图片描述

非固定大小的滑动窗口

前面讲到的context词处于平等地位。实际上,如果考虑离target词近的词可能比远离target词的context词更与target词相关。所以可以考虑使用不固定大小的滑动窗口。它的大小根据采样得到。这样离target词近的词有更大概率被采样和训练。
在这里插入图片描述

循环神经网络RNNs

下图是RNN的神经网络结构。
在这里插入图片描述

RNN单元

上面的RNN网络结构可以看成是RNN单元的复制。
RNN当前隐藏状态的值是依赖于过去隐藏状态值的。
在这里插入图片描述

RNN语言模型

下面是一个例子。可以发现其中的参数是共享的,这有助于模型可以泛化到不同长度的样本。也有助于减少参数量。
在这里插入图片描述

RNN的应用场景

序列标注(Sequence Labelling):给定一句话,要求给出每个词的词性
序列预测(Sequence Prediction):给定一周七天的温度,预测每天的天气情况
图片描述(Photograph Description):给定图片,创造一句话来描述对应图片
文本分类(Text Classification):给定一句话,区分其情感是正面还是负面的

RNN的优缺点

优点:

  • 可以处理变长数据
  • 模型大小不会随着输入的增大而增大
  • 权重是共享的
  • 后面的计算理论上可以获取到前面的信息

缺点:

  • 顺序计算很慢
  • 实际应用中,后面的计算很难获取到前面的信息

RNN上的梯度问题-梯度消失/爆炸

在这里插入图片描述
为了解决RNN的缺陷,需要更优的RNN单元。因此提出了两个变体,分别是GRU和LSTM。

Gated Recurrent Unit(GRU)

在传统RNN中引入gating机制。分别引入更新门和重置门。这两个门的作用是权衡过去信息和当前信息的影响。
在这里插入图片描述
在这里插入图片描述
下面演示一个GRU的计算。
分别计算重置门的系数,更新门的系数。新的临时隐藏层参数。再加上上一层隐藏层的输出。利用这些就可以计算需要传输到下一层的隐藏变量hi
在这里插入图片描述
当重置门的系数为0时,则上一层隐藏层的输入不参与这一层临时隐藏层的计算。
一个例子是,一个新文章的开头,过去的信息是无用的。
在这里插入图片描述
更新门的系数接近1,则表示当前层的输出近似等于上一层的隐藏层输出。
如果系数接近0,则当前层的输出近似等于当前层临时隐藏变量,相当于丢弃了之前的状态。
在这里插入图片描述

卷积神经网络CNNs

这篇关于[学习笔记]刘知远团队大模型技术与交叉应用L2-Neural Network Basics的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/606621

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

hdu1394(线段树点更新的应用)

题意:求一个序列经过一定的操作得到的序列的最小逆序数 这题会用到逆序数的一个性质,在0到n-1这些数字组成的乱序排列,将第一个数字A移到最后一位,得到的逆序数为res-a+(n-a-1) 知道上面的知识点后,可以用暴力来解 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#in