本文主要是介绍每天五分钟玩转深度学习PyTorch:nn.Module中封装好的神经网络层,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
本文重点
PyTorch实现了神经网络中绝大多数的layer,这些layer都继承于nn.Module,封装了可学习参数parameter,并实现了forward函数,且很多都专门针对GPU运算进行了CuDNN优化,其速度和性能都十分优异。本文介绍pytorch中已经封装好的神经网络层,我们可以直接通过nn.的方式来调用。本文主要学习第2步(模型搭建)。
全连接层
nn.Linear(in_features, out_features, bias)
全连接层的输入为:(N, input_features),输出为(N,output_features),N是batch_size。
常见的卷积神经网络层:
卷积层:conv = nn.Conv2d(1, 1, (3, 3), 1, bias=False)
参数表示输入通道、输出通道、卷积核、步长
池化层pool = nn.AvgPool2d(2,2)
参数表示卷积核和步长
BatchNorm&#x
这篇关于每天五分钟玩转深度学习PyTorch:nn.Module中封装好的神经网络层的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!