Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)

本文主要是介绍Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2012年,Hinton的学生Alex Krizhevsky提出了深度卷积神经网络模型AlexNet,它可以算是LeNet的一种更深更宽的版本。AlexNet以显著的优势赢得了竞争激烈的ILSVRC 2012比赛,top-5的错误率降低至了16.4%,远远领先第二名的26.2%的成绩。AlexNet的出现意义非常重大,它证明了CNN在复杂模型下的有效性,而且使用GPU使得训练在可接受的时间范围内得到结果,让CNN和GPU都大火了一把。AlexNet可以说是神经网络在低谷期后的第一次发声,确立了深度学习(深度卷积网络)在计算机视觉的统治地位,同时也推动了深度学习在语音识别、自然语言处理、强化学习等领域的拓展。


AlexNet每层的超参数如图所示:

其中, 
Input:图片尺寸224*224 
Conv1:卷积核11*11,步长4,96个filter(卷积核尺寸较大) 
ReLU 
LRN1 
Max pooling1:3*3,步长2 
Conv2:卷积核5*5,步长1,256个filter 
ReLU 
LRN2 
Max pooling2:3*3,步长2 
Conv3:卷积核3*3,步长1,384个filter 
ReLU 
Conv4:卷积核3*3,步长1,384个filter 
ReLU 
Conv5:卷积核3*3,步长1,256个filter 
ReLU 
Max pooling3:3*3,步长2 
FC1:4096 
ReLU 
FC2:4096 
ReLU 
FC3(Output):1000
 

在这里要注意一下原来Alexnet输入的图片大小为:224*224*3,MNIST数据输入图像是28*28*1,需要对原网络的卷积核进行对应的更改。

参看的文章

① https://blog.csdn.net/Greyhatjzy/article/details/70197008 代码①

② https://blog.csdn.net/lwplwf/article/details/72870378 代码②

③ https://blog.csdn.net/taoyanqi8932/article/details/71081390 原理介绍

一、两个代码的区别

①和②的主要区别是:

1.网络的不同:①中的1,2,5层网络有norm层和dropout层,②没有;②在6,7全链接层有dropout,①没有;

2.训练的方法不同:①中是在限制条件(step * batch_size < training_epochs)的依次取batch进行训练,run(optm)的次数是step* batch_size;②是先看训练集有几个patch,也就是total_batch,对每一个patch进行训练,这个算一个epoch,也就是run(optm)的次数是training_epochs*total_batch。

这两种训练方法的原理是一样的。

首先看看mnist.train.next_batch函数,作用效果是按数据顺序依次返回下一个batch,如果取了一些batch后发现剩余数据不到一个batch的数量,此函数会默认将数据打乱,用打乱数据的开头和剩余数据拼接成一个batch。

def next_batch(self, batch_size, fake_data=False, shuffle=True):"""Return the next `batch_size` examples from this data set."""if fake_data: #是否使用假数据fake_image = [1] * 784if self.one_hot:fake_label = [1] + [0] * 9else:fake_label = 0return [fake_image for _ in xrange(batch_size)], [fake_label for _ in xrange(batch_size)]start = self._index_in_epoch#指针指向开头# Shuffle for the first epochif self._epochs_completed == 0 and start == 0 and shuffle:#打乱数据perm0 = numpy.arange(self._num_examples)numpy.random.shuffle(perm0)self._images = self.images[perm0]self._labels = self.labels[perm0]# Go to the next epoch#如果指针指到快结尾了,剩余部分不到一个batch量if start + batch_size > self._num_examples:# Finished epochself._epochs_completed += 1 #表示已经完成一次数据的输出# Get the rest examples in this epochrest_num_examples = self._num_examples - startimages_rest_part = self._images[start:self._num_examples]labels_rest_part = self._labels[start:self._num_examples]# Shuffle the dataif shuffle:perm = numpy.arange(self._num_examples)numpy.random.shuffle(perm)self._images = self.images[perm]self._labels = self.labels[perm]# Start next epochstart = 0self._index_in_epoch = batch_size - rest_num_examplesend = self._index_in_epochimages_new_part = self._images[start:end]labels_new_part = self._labels[start:end]return numpy.concatenate(  #将前一个数据的尾和shuttle后数据的头连接到一起(images_rest_part, images_new_part), axis=0), numpy.concatenate((labels_rest_part, labels_new_part), axis=0)else: #正常按照顺序取batchself._index_in_epoch += batch_sizeend = self._index_in_epochreturn self._images[start:end], self._labels[start:end]

所以②训练相对于①训练有点多此一举,不过透露了训练的实质。

 

二、代码的运行:

代码①可以迅速的实现,但是代码②会发现内存不足原因是代码②有对测试数据的测试,所以删掉测试数据那句代码就可以快乐的跑啦(需要更改的地方如下)

if epoch % display_step == 0:train_accuracy = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys, keep_prob: 1.0})#test_accuracy = sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels, keep_prob:1.0})print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f " % (epoch, training_epochs, avg_cost, train_accuracy))

其次代码②为什么比代码①慢呢?

因为代码①每run一次(optimizer)都会输出一次结果,而代码②是run了total_batch次(optimizer)才输出一次结果。所以给人的感觉比较慢咯~~

这篇关于Tensorflow,Alexnet和MNIST数据 识别手写的数字(入门,代码,解析)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/980620

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

线上Java OOM问题定位与解决方案超详细解析

《线上JavaOOM问题定位与解决方案超详细解析》OOM是JVM抛出的错误,表示内存分配失败,:本文主要介绍线上JavaOOM问题定位与解决方案的相关资料,文中通过代码介绍的非常详细,需要的朋... 目录一、OOM问题核心认知1.1 OOM定义与技术定位1.2 OOM常见类型及技术特征二、OOM问题定位工具

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

深度解析Python中递归下降解析器的原理与实现

《深度解析Python中递归下降解析器的原理与实现》在编译器设计、配置文件处理和数据转换领域,递归下降解析器是最常用且最直观的解析技术,本文将详细介绍递归下降解析器的原理与实现,感兴趣的小伙伴可以跟随... 目录引言:解析器的核心价值一、递归下降解析器基础1.1 核心概念解析1.2 基本架构二、简单算术表达

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

从入门到精通详解Python虚拟环境完全指南

《从入门到精通详解Python虚拟环境完全指南》Python虚拟环境是一个独立的Python运行环境,它允许你为不同的项目创建隔离的Python环境,下面小编就来和大家详细介绍一下吧... 目录什么是python虚拟环境一、使用venv创建和管理虚拟环境1.1 创建虚拟环境1.2 激活虚拟环境1.3 验证虚

深度解析Java @Serial 注解及常见错误案例

《深度解析Java@Serial注解及常见错误案例》Java14引入@Serial注解,用于编译时校验序列化成员,替代传统方式解决运行时错误,适用于Serializable类的方法/字段,需注意签... 目录Java @Serial 注解深度解析1. 注解本质2. 核心作用(1) 主要用途(2) 适用位置3