【动手学深度学习】(七)丢弃法

2023-12-01 23:36
文章标签 学习 深度 动手 丢弃

本文主要是介绍【动手学深度学习】(七)丢弃法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 一、理论知识
  • 二、代码实现
    • 2.1从零开始实现Dropout
  • 【相关总结】
    • np.random.uniform(low,high,size)
    • astype
    • torch.rand()

一、理论知识

1.动机

  • 一个好的模型需要对输入数据的扰动鲁棒
    • 使用有噪音的数据等价于Tikhonov正则
    • 丢弃法:在层之间加入噪音
      2.无偏差的加入噪音
  • 对x加入噪音得到x’,我们希望
    在这里插入图片描述
  • 丢弃法对每个元素进行如下扰动在这里插入图片描述

在这里插入图片描述
3.使用场景

  • 通常将丢弃法作用在隐藏全连接层的输出上
    在这里插入图片描述
    4.推理中的丢弃法
  • 正则项只在训练中使用:他们影响模型参数的更新
  • 在推理过程中,丢弃法直接返回输出
    在这里插入图片描述
    总结:
  • 丢弃法将一些输出项随机置0来控制模型复杂度
  • 常作用在多层感知机的隐藏层输出上
  • 丢弃概率是控制模型复杂度的超参数

二、代码实现

2.1从零开始实现Dropout

import torch
from torch import nn
from d2l import torch as d2ldef dropout_layer(X, dropout):assert 0 <= dropout <= 1if dropout == 1:
#         全置0,即全丢弃return torch.zeros_like(x)if dropout == 0:
#         全保留return X
#     掩码中的元素大于 dropout 的值时为 True,表示该元素丢弃;mask = np.random.uniform(0, 1, X.shape) > dropout
#     mask = (torch.randn(X.shape) > dropout).float()
# 进行归一化,保持期望不变return mask.astype(np.float32) * X / (1.0 - dropout)

需要解释一下最后为什么需要进行归一化(即对保留的元素进行缩放)

在进行 Dropout 操作时,为了保持期望值不变,需要对被保留的神经元的输出进行归一化。Dropout 实际上是在训练期间按照一定概率随机将某些神经元的输出置零,这样可以防止模型过拟合。
假设在一个 Dropout 操作中,有一部分神经元被保留,而一部分被置零。那么为了保持期望值不变,就需要对被保留的神经元的输出进行归一化。这是因为在测试阶段,所有神经元都会参与预测,而在训练阶段,有一部分参与训练。如果在训练时不对被保留的神经元的输出进行归一化,那么在测试时整体的输出值就会偏大,因为所有神经元都要参与预测。

具体而言,对于被保留的神经元,其输出值 X 会乘以一个缩放因子,即 1.0 / (1.0 -dropout)。这样,在训练阶段,因为有一部分神经元被置零,乘以缩放因子后可以保持整体期望值不变。在测试阶段,因为所有神经元都是活跃的,这个缩放因子就等于1,不影响整体输出。

所以,通过除以 (1.0 - dropout) 进行归一化,可以在 Dropout操作中保持整体期望值不变,确保在训练和测试阶段输出值的一致性。
训练时输出的期望是E(x)=[(1-p)x+p*0]/(1-p) = x
测试阶段的期望值等于模型的实际输出,X

【相关总结】

np.random.uniform(low,high,size)

生成服从[low,high)范围内的均匀分布的元素。

low:生成元素值的下界(默认为0)
high:生成元素值的上界(默认为1)
size:输出设置

import numpy as np# 默认为[0,1)的均匀分布
arr = np.random.uniform()
print(arr)# 指定low,high
arr = np.random.uniform(2, 8)
print(arr)# 指定size
arr = np.random.uniform(2,8, (3,3))
print(arr)

0.8091521937664127
7.354698032780574
[[2.43782389 4.08495999 2.84664462]
[5.61473981 6.99573442 7.15074041]
[3.27288764 2.22821273 5.99610331]]

astype

转换数组数据类型

import numpy as np# 创建一个整数数组
arr_int = np.array([1, 2, 3, 4, 5])# 将整数数组转换为浮点数数组
arr_float = arr_int.astype(np.float32)print(arr_float)

[1. 2. 3. 4. 5.]

# 创建一个布尔数组
arr_bool = np.array([True, False, True, False])# 将布尔数组转换为整数数组
arr_int_from_bool = arr_bool.astype(np.int)print(arr_int_from_bool)

[1 0 1 0]

torch.rand()

用于生成随机数,生成在区间 [0, 1) 内均匀分布的随机数,包括 0,但不包括 1。

import torch# 生成一个包含随机数的张量,形状为 (3, 4)
random_tensor = torch.rand(3, 4)print(random_tensor)

tensor([[0.2901, 0.8945, 0.7689, 0.5298],
[0.6336, 0.8918, 0.8178, 0.8453],
[0.0051, 0.8169, 0.1454, 0.9368]])

如果需要生成在其他区间的随机数,可以通过适当的缩放和平移来实现。例如,如果要生成在区间 [a, b) 内均匀分布的随机数,可以使用:

tensor([[3.1698, 2.7084, 2.2045, 4.5003],
[3.1167, 4.5860, 3.7704, 4.0340],
[3.1466, 2.3846, 4.7165, 4.7822]])

这篇关于【动手学深度学习】(七)丢弃法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/443119

相关文章

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操

五大特性引领创新! 深度操作系统 deepin 25 Preview预览版发布

《五大特性引领创新!深度操作系统deepin25Preview预览版发布》今日,深度操作系统正式推出deepin25Preview版本,该版本集成了五大核心特性:磐石系统、全新DDE、Tr... 深度操作系统今日发布了 deepin 25 Preview,新版本囊括五大特性:磐石系统、全新 DDE、Tree

Node.js 中 http 模块的深度剖析与实战应用小结

《Node.js中http模块的深度剖析与实战应用小结》本文详细介绍了Node.js中的http模块,从创建HTTP服务器、处理请求与响应,到获取请求参数,每个环节都通过代码示例进行解析,旨在帮... 目录Node.js 中 http 模块的深度剖析与实战应用一、引言二、创建 HTTP 服务器:基石搭建(一

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学