02-TensorFlow 神经网络实现鸢尾花分类

2024-03-21 11:50

本文主要是介绍02-TensorFlow 神经网络实现鸢尾花分类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.数据集介绍

共有数据150组,每组包括花萼长、花萼宽、花瓣长、花瓣宽4个输入特征。同时给出了,这一组特征对应的鸢尾花类别。类别包括Setosa Iris(狗尾草鸢尾),Versicolour Iris(杂色鸢尾),Virginica Iris(弗吉尼亚鸢尾)三类,分别用数字0,1,2表示。
在这里插入图片描述

2.准备数据

1.数据集读入

这个数据集可以通过代码直接从网上导入

from sklearn import datasetsif __name__ == '__main__':#共有150组数据x_data = datasets.load_iris().data      #返回iris数据集所有输入特征y_data = datasets.load_iris().target    #返回iris数据集所有标签print(x_data)print(y_data)

运行结果
在这里插入图片描述

2.数据集乱序

np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)

3.划分数据集

数据集分出永不相见的训练集和测试集, 取前120组数据作为训练集, 后30组作为测试集

    #训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组

4.配成特征标签对

配成[输入特征,标签]对,每次喂入一小撮(batch)

    #特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)

所以数据准备操作的完整代码如下

import tensorflow as tf
from sklearn import datasets
import numpy as npif __name__ == '__main__':x_data = datasets.load_iris().data      #返回iris数据集所有输入特征, 共150组y_data = datasets.load_iris().target    #返回iris数据集所有标签np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)#训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组#注意:需要转换x的数据类型, 否则后面矩阵相乘会因数据类型不一致报错x_train = tf.cast(x_train, tf.float32)x_test = tf.cast(x_test, tf.float32)#特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)print(train_db)print(test_db)

在这里插入图片描述

3.搭建网络

花萼长、花萼宽、花瓣长、花瓣宽4个特征, 对应4个输入, Setosa Iris(狗尾草鸢尾),Versicolour Iris(杂色鸢尾),Virginica Iris(弗吉尼亚鸢尾)三类对应3个输出

y=wx+b
在这里插入图片描述
定义神经网路中所有可训练参数

    #4个输入3个输出w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))

4.参数优化

嵌套循环迭代,with结构更新参数,显示当前loss

  	lr = 0.1 #学习率0.1tran_loss_result = [] #将每轮的loss记录在此列表中, 为后续化loss曲线提供数据test_acc = []  #将每轮的acc记录在此列表中, 为后续化acc曲线提供数据epoch = 500 #循环500次loss_all = 0 #每轮分为4个step, loss_all记录四个step生成的4个loss的和for epoch in range(epoch):  # 数据集级别迭代for step, (x_train, y_train) in enumerate(train_db):  # batch级别迭代with tf.GradientTape() as tape:  # with结构记录梯度信息# 前向传播过程计算yy = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算2y = tf.nn.softmax(y)  # 使输出y符合概率分布y_ = tf.one_hot(y_train, depth=3)loss = tf.reduce_mean(tf.square(y_-y)) #采用均方差损失函数loss_all += loss.numpy() # 计算总lossgrads = tape.gradient(loss, [w1, b1])w1.assign_sub(lr * grads[0])  # 参数自更新b1.assign_sub(lr * grads[1])print("Epoch {}, loss: {}".format(epoch, loss_all / 4))tran_loss_result.append(loss_all / 4)loss_all = 0

在这里插入图片描述

5.测试部分

a.计算当前参数前向传播后的准确率,显示当前acc

	    total_correct = 0total_number = 0for x_test, y_test in test_db:y = tf.matmul(x_test, w1) + b1  # y为预测结果y = tf.nn.softmax(y)  # 使y符合概率分布pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类pred = tf.cast(pred, dtype=y_test.dtype)  # 调整数据类型与标签一致correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)correct = tf.reduce_sum(correct)  # 将每个batch的correct数加起来total_correct += int(correct)  # 将所有batch中的correct数加起来total_number += x_test.shape[0]acc = total_correct / total_numbertest_acc.append(acc)print("test_acc:", acc)

在这里插入图片描述
b.acc / loss可视化

    #绘制acc, loss曲线plt.title('Loss Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Loss')  # y轴名称plt.plot(tran_loss_result, label="$Loss$")  # 逐点画出test_acc值并连线plt.legend()plt.show()plt.title('Acc Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Acc')  # y轴名称plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线plt.legend()plt.show()

在这里插入图片描述
在这里插入图片描述

6.完整代码

import tensorflow as tf
from sklearn import datasets
import numpy as np
import matplotlib.pyplot as pltif __name__ == '__main__':x_data = datasets.load_iris().data      #返回iris数据集所有输入特征, 共150组y_data = datasets.load_iris().target    #返回iris数据集所有标签np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)#训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组#注意:需要转换x的数据类型, 否则后面矩阵相乘会因数据类型不一致报错x_train = tf.cast(x_train, tf.float32)x_test = tf.cast(x_test, tf.float32)#特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)# print(train_db)# print(test_db)#4个输入3个输出w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))lr = 0.1 #学习率0.1tran_loss_result = [] #将每轮的loss记录在此列表中, 为后续化loss曲线提供数据test_acc = []  #将每轮的acc记录在此列表中, 为后续化acc曲线提供数据epoch = 500 #循环500次loss_all = 0 #每轮分为4个step, loss_all记录四个step生成的4个loss的和for epoch in range(epoch):  # 数据集级别迭代for step, (x_train, y_train) in enumerate(train_db):  # batch级别迭代with tf.GradientTape() as tape:  # with结构记录梯度信息# 前向传播过程计算yy = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算2y = tf.nn.softmax(y)  # 使输出y符合概率分布y_ = tf.one_hot(y_train, depth=3)loss = tf.reduce_mean(tf.square(y_-y)) #采用均方差损失函数loss_all += loss.numpy() # 计算总lossgrads = tape.gradient(loss, [w1, b1])w1.assign_sub(lr * grads[0])  # 参数自更新b1.assign_sub(lr * grads[1])print("Epoch {}, loss: {}".format(epoch, loss_all / 4))tran_loss_result.append(loss_all / 4)loss_all = 0total_correct = 0total_number = 0for x_test, y_test in test_db:y = tf.matmul(x_test, w1) + b1  # y为预测结果y = tf.nn.softmax(y)  # 使y符合概率分布pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类pred = tf.cast(pred, dtype=y_test.dtype)  # 调整数据类型与标签一致correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)correct = tf.reduce_sum(correct)  # 将每个batch的correct数加起来total_correct += int(correct)  # 将所有batch中的correct数加起来total_number += x_test.shape[0]acc = total_correct / total_numbertest_acc.append(acc)print("test_acc:", acc)#绘制acc, loss曲线plt.title('Loss Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Loss')  # y轴名称plt.plot(tran_loss_result, label="$Loss$")  # 逐点画出test_acc值并连线plt.legend()plt.show()plt.title('Acc Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Acc')  # y轴名称plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线plt.legend()plt.show()

这篇关于02-TensorFlow 神经网络实现鸢尾花分类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/832565

相关文章

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

认识、理解、分类——acm之搜索

普通搜索方法有两种:1、广度优先搜索;2、深度优先搜索; 更多搜索方法: 3、双向广度优先搜索; 4、启发式搜索(包括A*算法等); 搜索通常会用到的知识点:状态压缩(位压缩,利用hash思想压缩)。

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略 1. 特权模式限制2. 宿主机资源隔离3. 用户和组管理4. 权限提升控制5. SELinux配置 💖The Begin💖点点关注,收藏不迷路💖 Kubernetes的PodSecurityPolicy(PSP)是一个关键的安全特性,它在Pod创建之前实施安全策略,确保P