【tensorflow】3.简单神经网络_MINIST

2024-08-28 23:08

本文主要是介绍【tensorflow】3.简单神经网络_MINIST,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【tensorflow】3.简单神经网络_MINIST

本文中,会搭建一个简单的两层网络,实现手写体数据集MINIST的识别。
通过本文,可以学到,神经网络工程的一般流程,cross entropy损失函数。


网络结构

此处采用简单的两层网络
input:n*784
layer1:256个neuron,w:784*256,b:256
layer2:128个neuron,w:256*128,b:128
output:10个类别,w:128*10,b:10
activation:sigmod
cost:cross_entropy

损失函数

损失函数有两个特性:

损失函数永远大于0
计算值与真实值越接近,损失函数越小。两者差距越大,损失函数越大。

cross entropy的定义:

H(p,q)=xp(x)logq(x) H ( p , q ) = − ∑ x p ( x ) l o g q ( x )

p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性。为神经网络引入交叉熵代价函数,是为了弥补 sigmoid 型函数的导数形式易发生饱和(saturate,梯度更新的较慢)的缺陷。

【知乎】一个很好的对于熵、交叉熵、相对熵的理解:如何通俗的解释交叉熵与相对熵?(前几个答案都很不错)
【csdn】补充一个说明资料:卷积神经网络系列之softmax,softmax loss和cross entropy的讲解

# -*- coding: utf-8 -*-
# @File    : 4_NeuralNetwork_MINIST.py
# @Time    : 2018/5/21 10:56
# @Author  : hyfine
# @Contact : foreverfruit@126.com
# @Desc    : 简单的两层网络实现的手写体识别,所用网络是一个多层感知机,是一种前向结构的人工神经网络import input_data
import tensorflow as tf# 1.数据载入,该部分和之前logisticRegression一样
minist = input_data.read_data_sets('data/', one_hot=True)
train_x = minist.train.images
train_y = minist.train.labels
test_x = minist.test.images
test_y = minist.test.labels
print("train shape:", train_x.shape, train_y.shape)
print("test  shape:", test_x.shape, test_y.shape)
print("----------MNIST loaded----------------")# 2.建立网络模型
'''
此处采用简单的两层网络
input:n*784
layer1:256个neuron,w:784*256,b:256
layer2:128个neuron,w:256*128,b:128
output:10个类别,w:128*10,b:10
activation:sigmod
cost:cross_entropy
'''
n_hidden_1 = 256
n_hidden_2 = 128
n_input = 784
n_class = 10# 输入与输出
x = tf.placeholder(tf.float32, [None, 784])
y = tf.placeholder(tf.float32, [None, 10])
# 网络参数
# 权重以高斯分布初始化
w = {'w1': tf.Variable(tf.random_normal([n_input, n_hidden_1]), dtype=tf.float32),'w2': tf.Variable(tf.random_normal([n_hidden_1, n_hidden_2]), dtype=tf.float32),'w_out': tf.Variable(tf.random_normal([n_hidden_2, n_class]), dtype=tf.float32)
}
# 偏置都采用0值初始化
b = {'b1': tf.Variable(tf.zeros([n_hidden_1]), dtype=tf.float32),'b2': tf.Variable(tf.zeros([n_hidden_2]), dtype=tf.float32),'b_out': tf.Variable(tf.zeros([n_class]), dtype=tf.float32)
}
print('NeuralNetwork Ready!')def forward_propagation(_x, _w, _b):"""网络的前向传播:param _x:网络输入:param _w:网络的各层权重:param _b:网络各层偏置:return: 网络的输出"""layer_1 = tf.nn.sigmoid(tf.add(tf.matmul(_x, _w['w1']), _b['b1']))layer_2 = tf.nn.sigmoid(tf.add(tf.matmul(layer_1, _w['w2']), _b['b2']))# 输出层不用激活return tf.add(tf.matmul(layer_2, _w['w_out']), _b['b_out'])# 3.优化求解loss,更新参数
y_ = forward_propagation(x, w, b)
# 平均loss
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(logits=y_, labels=y))
lr = 0.01
optm = tf.train.GradientDescentOptimizer(lr).minimize(cost)
result = tf.equal(tf.argmax(y_, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(result, tf.float32))# 4.训练
epochs = 20
batch_size = 100
batch_count = int(minist.train.num_examples / batch_size)
display_step = 4sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)print('---------- TRAINING -------------')
for epoch in range(epochs):# 每一轮训练arg_cost = 0.# 这里提前声明,抑制下文if block中的提示batch_x, batch_y = None, Nonefor batch_index in range(batch_count):batch_x, batch_y = minist.train.next_batch(batch_size)feed = {x: batch_x, y: batch_y}sess.run(optm, feed_dict=feed)arg_cost += sess.run(cost, feed_dict=feed)arg_cost /= batch_count# displayif epoch % display_step == display_step - 1:# 这里模型在训练集上的准确率,可以用所有训练样本,也可以用最后一个训练批次样本,这里用后者feed_train = {x: batch_x, y: batch_y}feed_test = {x: test_x, y: test_y}ac_train = sess.run(accuracy, feed_dict=feed_train)ac_test = sess.run(accuracy, feed_dict=feed_test)print('Epoch: %03d/%03d cost: %.5f train_accuray:%0.5f test_accuray:%0.5f' % (epoch+1, epochs, arg_cost, ac_train, ac_test))

输出结果

train shape: (55000, 784) (55000, 10)
test shape: (10000, 784) (10000, 10)
———-MNIST loaded—————-
NeuralNetwork Ready!
———- TRAINING ————-
Epoch: 004/020 cost: 1.45769 train_accuray:0.64000 test_accuray:0.58570
Epoch: 008/020 cost: 1.03010 train_accuray:0.71000 test_accuray:0.69020
Epoch: 012/020 cost: 0.85665 train_accuray:0.73000 test_accuray:0.74210
Epoch: 016/020 cost: 0.75532 train_accuray:0.83000 test_accuray:0.76770
Epoch: 020/020 cost: 0.68614 train_accuray:0.80000 test_accuray:0.79040

这篇关于【tensorflow】3.简单神经网络_MINIST的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1116144

相关文章

利用Python编写一个简单的聊天机器人

《利用Python编写一个简单的聊天机器人》这篇文章主要为大家详细介绍了如何利用Python编写一个简单的聊天机器人,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 使用 python 编写一个简单的聊天机器人可以从最基础的逻辑开始,然后逐步加入更复杂的功能。这里我们将先实现一个简单的

使用IntelliJ IDEA创建简单的Java Web项目完整步骤

《使用IntelliJIDEA创建简单的JavaWeb项目完整步骤》:本文主要介绍如何使用IntelliJIDEA创建一个简单的JavaWeb项目,实现登录、注册和查看用户列表功能,使用Se... 目录前置准备项目功能实现步骤1. 创建项目2. 配置 Tomcat3. 项目文件结构4. 创建数据库和表5.

使用PyQt5编写一个简单的取色器

《使用PyQt5编写一个简单的取色器》:本文主要介绍PyQt5搭建的一个取色器,一共写了两款应用,一款使用快捷键捕获鼠标附近图像的RGB和16进制颜色编码,一款跟随鼠标刷新图像的RGB和16... 目录取色器1取色器2PyQt5搭建的一个取色器,一共写了两款应用,一款使用快捷键捕获鼠标附近图像的RGB和16

四种简单方法 轻松进入电脑主板 BIOS 或 UEFI 固件设置

《四种简单方法轻松进入电脑主板BIOS或UEFI固件设置》设置BIOS/UEFI是计算机维护和管理中的一项重要任务,它允许用户配置计算机的启动选项、硬件设置和其他关键参数,该怎么进入呢?下面... 随着计算机技术的发展,大多数主流 PC 和笔记本已经从传统 BIOS 转向了 UEFI 固件。很多时候,我们也

基于Qt开发一个简单的OFD阅读器

《基于Qt开发一个简单的OFD阅读器》这篇文章主要为大家详细介绍了如何使用Qt框架开发一个功能强大且性能优异的OFD阅读器,文中的示例代码讲解详细,有需要的小伙伴可以参考一下... 目录摘要引言一、OFD文件格式解析二、文档结构解析三、页面渲染四、用户交互五、性能优化六、示例代码七、未来发展方向八、结论摘要

MyBatis框架实现一个简单的数据查询操作

《MyBatis框架实现一个简单的数据查询操作》本文介绍了MyBatis框架下进行数据查询操作的详细步骤,括创建实体类、编写SQL标签、配置Mapper、开启驼峰命名映射以及执行SQL语句等,感兴趣的... 基于在前面几章我们已经学习了对MyBATis进行环境配置,并利用SqlSessionFactory核

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu2289(简单二分)

虽说是简单二分,但是我还是wa死了  题意:已知圆台的体积,求高度 首先要知道圆台体积怎么求:设上下底的半径分别为r1,r2,高为h,V = PI*(r1*r1+r1*r2+r2*r2)*h/3 然后以h进行二分 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#includ

usaco 1.3 Prime Cryptarithm(简单哈希表暴搜剪枝)

思路: 1. 用一个 hash[ ] 数组存放输入的数字,令 hash[ tmp ]=1 。 2. 一个自定义函数 check( ) ,检查各位是否为输入的数字。 3. 暴搜。第一行数从 100到999,第二行数从 10到99。 4. 剪枝。 代码: /*ID: who jayLANG: C++TASK: crypt1*/#include<stdio.h>bool h

uva 10387 Billiard(简单几何)

题意是一个球从矩形的中点出发,告诉你小球与矩形两条边的碰撞次数与小球回到原点的时间,求小球出发时的角度和小球的速度。 简单的几何问题,小球每与竖边碰撞一次,向右扩展一个相同的矩形;每与横边碰撞一次,向上扩展一个相同的矩形。 可以发现,扩展矩形的路径和在当前矩形中的每一段路径相同,当小球回到出发点时,一条直线的路径刚好经过最后一个扩展矩形的中心点。 最后扩展的路径和横边竖边恰好组成一个直