AlexNet(fashion-mnist)

2024-01-10 22:52
文章标签 mnist alexnet fashion

本文主要是介绍AlexNet(fashion-mnist),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言

AlexNet相较于LeNet-5具有更深的网络结构,采用relu激活函数。

AlexNet

参数更多,计算量更大,计算速度更慢,精度更高。

net=nn.Sequential(nn.Conv2d(1,96,kernel_size=11,stride=4,padding=1),nn.ReLU(),nn.MaxPool2d(kernel_size=3,stride=2),nn.Conv2d(96,256,kernel_size=5,padding=2),nn.ReLU(),nn.MaxPool2d(kernel_size=3,stride=2),nn.Conv2d(256,384,kernel_size=3,padding=1),nn.ReLU(),nn.Conv2d(384,384,kernel_size=3,padding=1),nn.ReLU(),nn.Conv2d(384,256,kernel_size=3,padding=1),nn.ReLU(),nn.MaxPool2d(kernel_size=3,stride=2),nn.Flatten(),nn.Linear(6400,4096),nn.ReLU(),nn.Dropout(p=0.5),nn.Linear(4096,4096),nn.ReLU(),nn.Dropout(p=0.5),nn.Linear(4096,10)
)

在这里插入图片描述
在这里插入图片描述

这篇关于AlexNet(fashion-mnist)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/592338

相关文章

T1打卡——mnist手写数字识别

🍨 本文为🔗365天深度学习训练营中的学习记录博客🍖 原作者:K同学啊 1.定义GPU import tensorflow as tfgpus=tf.config.list_physical_devices("GPU")if gpus:gpu0=gpus[0]tf.config.experimental.set_memort_groth(gpu0,True) #设置GPU现存用量按需

【tensorflow CNN】构建cnn网络,识别mnist手写数字识别

#coding:utf8"""构建cnn网络,识别mnistinput conv1 padding max_pool([2,2],strides=[2,2]) conv2 x[-1,28,28,1] 卷积 [5,5,1,32] -> [-1,24,24,32]->[-1,28,

直接训练SNN:从LIF模型到MNIST分类的完整实战【含源码】

我们计划使用原生Python代码直接训练SNN,并在相同的精度、超参数和网络结构下与SpikingJelly进行精度对比。以下是基准方法和相关教程的链接: 时间驱动:使用单层全连接SNN识别MNIST — SpikingJelly alpha 文档 在直接训练SNN时,我们需要实现以下三个方面: LIF神经元:实现充电、发射脉冲、重置等操作。编码方式:将连续值转换为适合SNN输入的形式

windows环境Caffe安装配置步骤(无GPU)及mnist训练

最初的想法是动手熟悉Caffe,考虑到直接上手Ubuntu会有些难度,所以首先在windows环境下打个基础。有个插曲,台式机由于某些原因只能保持在32位系统,编译caffe.cpp时才发现系统不兼容,然后才换到64位的笔记本上进行操作。  前期准备:1.VS 2013   2. windows版的Caffe(https://github.com/BVLC/caffe/tree/window

[总结] Alexnet

AlextNet 首次使用relu,dropout的好处: 多个子网络组合, hard记忆没了, 增加数据sgd VGGNet pooling 之后通道数增加 Resnet 没有全联接层 Inception 分组卷积,多种层级的feature, 不交叉计算 mobilenet模型压缩极限是 卷积核大小kw, kh 1/9 10%

①softmax回归MNIST手写数字识别

Softmax在机器学习中有着非常广泛的应用,他计算简单而且效果显著。 假设有两个数a和b,且a>b > c 如果取max,结果是a 如果取softmax,则softmax(a) > softmax(b) > softmax(c),softmax把所有的选项都给出概率。 MNIST手写数字识别是一个使用softmax回归(softmax regression)模型

使用PyTorch AlexNet预训练模型对新数据集进行训练及预测

在 https://blog.csdn.net/fengbingchun/article/details/112709281 中介绍了AlexNet网络,这里使用PyTorch中提供的AlexNet预训练模型对新数据集进行训练,然后使用生成的模型进行预测。主要包括三部分:新数据集自动拆分、训练、预测       1.新数据集自动拆分:这里使用从网络下载的西瓜、冬瓜图像作为新数据集,只

【深度学习与NLP】——深度卷积神经网络AlexNet

目录 一、卷积神经网络的发展历程 二、简要介绍 三、代码实现 四、缺点和过时的地方 一、卷积神经网络的发展历程 早期理论基础阶段(20 世纪 60 年代 - 80 年代): 1968 年,Hubel 和 Wiesel 通过对猫视觉神经的研究,发现了视觉神经元对图像边缘的响应特性,提出了感受野的概念,为卷积神经网络的发展奠定了生物学基础 3。1980 年,日本科学家福岛邦彦提出了 N

Ubuntu18.04LTS下基于 Anaconda3 安装 Caffe-GPU及 Python3.6 + Pycharm + Mnist例子教程(超详细)

PDF版本请点击此处下载 1.    配置Anaconda3 1.1.  下载安装包 官网下载地址:https://www.anaconda.com/download/#linux 1.2.  安装 下载完之后是后缀.sh文件 在终端输入:bash Anaconda3-5.0.0.1-Linux-x86_64.sh 2.    切换默认Python版本 2.1.  查看Pyth

基于胶囊网络的Fashion-MNIST数据集的10分类

胶囊网络 原文:Dynamic Routing Between Capsules 源码:https://github.com/XifengGuo/CapsNet-Fashion-MNIST 数据集 Fashion-MNIST数据集由70000张 28 ∗ 28 28*28 28∗28大小的灰度图像组成,共有10个类别,每一类别各有7000张图像。数据集划分为两部分,即训练集和测试集。