本文主要是介绍Tensorflow2.1学习笔记(一),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
鸢尾花预测
from sklearn import datasets
import pandas as pd
from pandas import DataFrame
import numpy as np
import tensorflow as tf
from matplotlib import pyplot as pltepoch=500
lr=0.1
train_loss_results=[] #将每轮的acc记录在此表中,为后续画acc提供数据
test_acc=[]
loss_all=0 #每轮分4个step,loss_all记录四个loss的和
total_correct=0
total_num=0x_data=datasets.load_iris().data
y_data=datasets.load_iris().target
#打乱数据集,seed是随机种子数,当设置之后,每次生成的随机数都一样
np.random.seed(116)#使用相同的seed 确保输入特征与标签一一对应
np.random.shuffle(x_data)
np.random.seed(116)
np.random.shuffle(y_data)
np.random.seed(116)
#将数据分为训练集和测试集,训练集为前120行,测试集为后30行
x_train=x_data[:-30]
y_train=y_data[:-30]
x_test=x_data[-30:]
y_test=y_data[-30:]
#转换x的数据类型,否则后面与矩阵相乘时会因为数据不一致而报错
x_train=tf.cast(x_train,tf.float32)
x_test=tf.cast(x_test,tf.float32)
#配对,将标签与输入特征一一对应(把数据集分批次,每个批次batch组数据)
train_db=tf.data.Dataset.from_tensor_slices((x_train,y_train)).batch(32)
test_db=tf.data.Dataset.from_tensor_slices((x_test,y_test)).batch(32)
#定义神经网络训练参数,4个输入特征,输入层为4个节点,由于3分类,故输出层为3个神经元
w1=tf.Variable(tf.random.truncated_normal([4,3],mean=0,stddev=0.1,seed=1))
b=tf.Variable(tf.random.truncated_normal([3],mean=0,stddev=0.1,seed=1))
#嵌套循环迭代,with结构更新参数,显示当前loss
for epoch in range(epoch):for step,(x_train,y_train) in enumerate(train_db):#batch级别的循环,每个step循环with tf.GradientTape() as tape:y=tf.matmul(x_train,w1)+b #神经网络乘加运算y=tf.nn.softmax(y)y_=tf.one_hot(y_train,depth=3)#将标签值转化为独热编码格式,方便计算loss和accloss=tf.reduce_mean(tf.square(y_-y))#采用均方误差损失函数loss_all+=loss.numpy()#将每个step计算出的loss累加#计算loss对各个参数的梯度grads=tape.gradient(loss,[w1,b])w1.assign_sub(lr*grads[0])b.assign_sub(lr*grads[1])print('Epoch:{},loss:{}'.format(epoch,loss_all/4))train_loss_results.append(loss_all/4)#将四个step的loss值求平均记录在这个变量中loss_all=0#测试部分for x_test,y_test in test_db:#使用更新后的数据进行预测y=tf.matmul(x_test,w1)+by=tf.nn.softmax(y)pred=tf.argmax(y,axis=1)pred=tf.cast(pred,dtype=y_test.dtype)#返回预测的最大值的索引,并将pred转化为y_test的数据类型correct=tf.cast(tf.equal(pred,y_test),dtype=tf.int32)#若分类正确,则correct=1,即将boolean类型转化为int类型correct=tf.reduce_sum(correct)#将每个batch的correct加起来total_correct+=int(correct)total_num+=x_test.shape[0]#将所有batch中的correct加起来acc=total_correct/total_numtest_acc.append(acc)print("Test_acc:",acc)print('-------------------------------------------------')plt.title('Loss Function Curve')
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.plot(train_loss_results,label="$Loss$")
plt.legend()
plt.show()plt.title('Acc Curve')
plt.xlabel('Epoch')
plt.ylabel('Acc')
plt.plot(test_acc,label="$Accuracy$")
plt.legend()
plt.show()
# print("x_data from datasets:\n",x_data) #返回数据集中所有输入特征
# print("y_data from datasets:\n",y_data) #返回数据集中所有标签
#
# x_data=DataFrame(x_data,columns=['花萼长度','花萼宽度','花瓣长度','花瓣宽度'])
# pd.set_option('display.unicode.east_asian_width',True) #设置列名对齐
# print('x_data add index:\n',x_data)
#
# x_data['类别']=y_data #新加一列,列标签为类名,数据为y_data
# print('x_data add a conclum:\n',x_data)
运行结果
这篇关于Tensorflow2.1学习笔记(一)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!