【机器学习笔记2.6】用Softmax回归做mnist手写体识别

2024-06-06 05:58

本文主要是介绍【机器学习笔记2.6】用Softmax回归做mnist手写体识别,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

MNIST是什么

MNIST是一个手写数字数据集,它有60000个训练样本集和10000个测试样本集。可以将MNIST手写体识别看做是深度学习的HelloWorld。
MNIST数据集官方网址:http://yann.lecun.com/exdb/mnist/

从官网下载的MNIST数据集是二进制形式存储的,可以通过如下代码将其转换为图片形式。
代码示例1:

# mnist数据集转成图片
import os
import numpy as np
import cv2
import tensorflow.examples.tutorials.mnist.input_data as input_datadatapath = "MNIST_data/"
mnist = input_data.read_data_sets(datapath, validation_size=0, one_hot=True)def get_train_data():train_images = mnist.train.imagestrain_labels = mnist.train.labelsreturn train_images, train_labelsdef get_test_data():test_images = mnist.test.imagestest_labels = mnist.test.labelsreturn test_images, test_labelsdef save_data(images, labels, train_test_str):for i in range(images.shape[0]):image = images[i].reshape([28, 28]) * 255label = labels[i]index = np.argmax(label)index_path = os.path.join(datapath, train_test_str, str(index))if not os.path.exists(index_path):os.makedirs(index_path)cv2.imwrite(os.path.join(index_path, str(index) + "_" + str(i) + ".jpg"), image)images, labels = get_train_data()
save_data(images, labels, "train")
images, labels = get_test_data()
save_data(images, labels, "test")print('end')

用Softmax回归做mnist手写体识别

loss 用最小二乘法

代码示例2[1]:

import numpy as np
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("MNIST_data/", validation_size=0, one_hot=True)x_data = tf.placeholder("float32", [None, 784])
weight = tf.Variable(tf.ones([784, 10]))
bias = tf.Variable(tf.ones([10]))
y_model = tf.nn.softmax(tf.matmul(x_data, weight) + bias)
y_data = tf.placeholder("float32", [None, 10])loss = tf.reduce_sum(tf.pow((y_model - y_data), 2))train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)# 为了能print出array的所有元素,而不是中间是省略号
np.set_printoptions(threshold=np.inf)accuracy_rate_list = []
for _ in range(1000):batch_xs, batch_ys = mnist.train.next_batch(100)sess.run(train_step, feed_dict={x_data:batch_xs, y_data:batch_ys})if _ % 50 == 0:accuracy_bool_vec = tf.equal(tf.argmax(y_model, 1), tf.argmax(y_data, 1))  # tf.argmax解析accuracy_float_vec = tf.cast(accuracy_bool_vec, "float")accuracy_rate = tf.reduce_mean(accuracy_float_vec)accuracy_rate = sess.run(accuracy_rate, feed_dict={x_data: mnist.test.images, y_data: mnist.test.labels})accuracy_rate_list.append(accuracy_rate)print(accuracy_rate)# 为便于理解上述准确率的计算过程,可将程序拆解如下分析"""test_batch_size = 2data = mnist.test.images[0:test_batch_size]label = mnist.test.labels[0:test_batch_size]data = data.reshape([test_batch_size, 784])label = label.reshape([test_batch_size, 10])rslt1 = sess.run(y_model, feed_dict={x_data: data})rslt2 = sess.run(y_data, feed_dict={y_data: label})rslt3 = sess.run(tf.argmax(y_model, 1), feed_dict={x_data: data})rslt4 = sess.run(tf.argmax(y_data, 1), feed_dict={y_data: label})rslt5 = sess.run(fcorrect, feed_dict={x_data: data, y_data: label})rslt6 = sess.run(accuracy, feed_dict={x_data: data, y_data: label})print(rslt1, rslt2, rslt3, rslt4, rslt5, rslt6)"""import matplotlib.pyplot as plt
accuracy_rate_arr = np.array(accuracy_rate_list)
size = np.arange(len(accuracy_rate_arr))
plt.plot(size, accuracy_rate_arr, 'b+', label='accuracy_rate')
plt.show()

准确率曲线图如下:
enter image description here

loss 用交叉熵, 使用relu激活函数

对代码示例2做如下修改[1]:
激活函数用relu

y_model = tf.nn.relu(tf.matmul(x_data, weight) + bias)

损失函数用交叉熵

loss = -tf.reduce_sum(y_data*tf.log(y_model))

完整代码示例3:

输出结果如下:
0.1328
0.4654
……
0.5596
……
0.6175
0.6237
实验结果准确率并未如[1](12.2.4)中所说有所提升,反而下降了。是文献[1]代码写错了吗?该如何修改呢?
(后来掌握的知识多了,发现其实文献[1]写的挺搓的,代码有很多坑。)

增加隐藏层

将代码示例2中的weight、bias、y_model进行修改,将weight、bias修改为weight1、bias1,并增加weight2、bias2,具体如下[1]:

weight1 = tf.Variable(tf.ones([784, 256]))
bias1 = tf.Variable(tf.ones([256]))
y1_model1 = tf.matmul(x_data, weight1) + bias1weight2 = tf.Variable(tf.ones([256, 10]))
bias2 = tf.Variable(tf.ones([10]))
y_model = tf.nn.softmax(tf.matmul(y1_model1, weight2) + bias2)
# y_model = tf.nn.relu(tf.matmul(y1_model1, weight2) + bias2)

完整代码示例4:

import numpy as np
import tensorflow as tf
import tensorflow.examples.tutorials.mnist.input_data as input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)x_data = tf.placeholder("float32", [None, 784])# weight = tf.Variable(tf.ones([784, 10]))
# bias = tf.Variable(tf.ones([10]))
# y_model = tf.nn.softmax(tf.matmul(x_data, weight) + bias)# ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
weight1 = tf.Variable(tf.ones([784, 256]))
bias1 = tf.Variable(tf.ones([256]))
y1_model1 = tf.matmul(x_data, weight1) + bias1weight2 = tf.Variable(tf.ones([256, 10]))
bias2 = tf.Variable(tf.ones([10]))
y_model = tf.nn.softmax(tf.matmul(y1_model1, weight2) + bias2)
# y_model = tf.nn.relu(tf.matmul(y1_model1, weight2) + bias2)
# ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~y_data = tf.placeholder("float32", [None, 10])loss = tf.reduce_sum(tf.pow((y_model - y_data), 2))
# loss = -tf.reduce_sum(y_data*tf.log(y_model))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)# 为了能print出array的所有元素,而不是中间是省略号
np.set_printoptions(threshold=np.inf)accuracy_rate_list = []
for _ in range(1000):batch_xs, batch_ys = mnist.train.next_batch(50)sess.run(train_step, feed_dict={x_data:batch_xs, y_data:batch_ys})if _ % 50 == 0:accuracy_bool_vec = tf.equal(tf.argmax(y_model, 1), tf.argmax(y_data, 1))  # tf.argmax解析accuracy_float_vec = tf.cast(accuracy_bool_vec, "float")accuracy_rate = tf.reduce_mean(accuracy_float_vec)accuracy_rate = sess.run(accuracy_rate, feed_dict={x_data: mnist.test.images, y_data: mnist.test.labels})accuracy_rate_list.append(accuracy_rate)print(accuracy_rate)# 为便于理解上述准确率的计算过程,可将程序拆解如下分析'''test_batch_size = 2data = mnist.test.images[0:test_batch_size]label = mnist.test.labels[0:test_batch_size]data = data.reshape([test_batch_size, 784])label = label.reshape([test_batch_size, 10])rslt1 = sess.run(y_model, feed_dict={x_data: data})rslt2 = sess.run(y_data, feed_dict={y_data: label})rslt3 = sess.run(tf.argmax(y_model, 1), feed_dict={x_data: data})rslt4 = sess.run(tf.argmax(y_data, 1), feed_dict={y_data: label})rslt5 = sess.run(fcorrect, feed_dict={x_data: data, y_data: label})rslt6 = sess.run(accuracy, feed_dict={x_data: data, y_data: label})print(rslt1, rslt2, rslt3, rslt4, rslt5, rslt6)'''import matplotlib.pyplot as plt
accuracy_rate_arr = np.array(accuracy_rate_list)
size = np.arange(len(accuracy_rate_arr))
plt.plot(size, accuracy_rate_arr, 'b+', label='accuracy_rate')
plt.show()

输出结果:
0.1032
识别率反而更低了,比示例3的识别率还低。文献[1]作者是想通过此例来说明,对于MNIST手写体识别,单靠在softmax回归中增加隐藏层是不可行的。

参考文献

[1] 王晓华. TensorFlow深度学习应用实践

这篇关于【机器学习笔记2.6】用Softmax回归做mnist手写体识别的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1035277

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

阿里开源语音识别SenseVoiceWindows环境部署

SenseVoice介绍 SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别: 采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测。高效推

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个