TensorFlow介绍二-线性回归案例

2024-09-04 05:52

本文主要是介绍TensorFlow介绍二-线性回归案例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一.案例步骤

1.准备数据集:y=0.8x+0.7  100个样本

2.建立线性模型,初始化w和b变量

3.确定损失函数(预测值与真实值之间的误差),均方误差

4.梯度下降优化损失

二.完整功能代码:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tfdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + bias# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))return Noneif __name__ == '__main__':linear_regression()

三.增加其他功能

1.增加命名空间

使代码结构更加清晰,Tensorboard图结构更加清楚,

使用tf.variable_scope方法,里面的名字自己定义

with tf.variable_scope("lr_model"):

2.收集变量

这样更容易观察参数的更新情况 

3.写入事件

使用tensorboard观察,在命令行中切换到事件所在文件目录,使用命令:

tensorboard --logdir="事件所在的文件目录"

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tfdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列with tf.variable_scope("original_data"):  # 表示正在创建数据X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7with tf.variable_scope("linear_model"): # 初始化变量# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + biaswith tf.variable_scope("loss"):  # 确定误差# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))with tf.variable_scope("gd_optimizer"):  # 构建优化器# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 收集变量tf.summary.scalar("error", error)tf.summary.histogram("weights", weights)tf.summary.histogram("bias", bias)# 合并变量merge=tf.summary.merge_all()# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 创建事件文件,将事件写入到ligdir中的目录中file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))# 运行合并变量opsummary=sess.run(merge)file_writer.add_summary(summary,i)return Noneif __name__ == '__main__':linear_regression()

 四.模型的保存和加载

tf.train.Saver(var_list=None,max_to_keep=5)

保存和加载模型(保存文件格式:checkpoint文件)
var_list:指定将要保存和还原的变量。它可以作为一个dict或一个列表传递.
max_to_keep:指示要保留的最近检查点文件的最大数量。创建新文件时,会删除较旧的文件。如果无或0,则保留所有检查点文件。默认为5(即保留最新的5个检查点文件。)

例如

# 指定目录+模型名字
# 保存
saver.save(sess, '/tmp/ckpt/test/myregression.ckpt')
# 加载
saver.restore(sess, '/tmp/ckpt/test/myregression.ckpt')

如果判断模型是否存在,直接指定目录

checkpoint = tf.train.latest_checkpoint("./tmp/model/")saver.restore(sess, checkpoint)

五.命令行参数使用

1.tf.app.flags,它支持应用从命令行接收参数,可以用来指定集训配置等,在tf.app.flags下面各种定义参数的类型

2、 tf.app.flags.,在flags有一个FLAGS标志,它在程序中可以调用到我们

前面具体定义的flag_name

3.通过tf.app.run()启动main(argv)函数

# 定义一些常用的命令行参数
# 训练步数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
# 定义模型的路径
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")# 定义获取命令行参数
FLAGS = tf.app.flags.FLAGS# 开启训练
# 训练的步数(依据模型大小而定)
for i in range(FLAGS.max_step):sess.run(train_op)

六.完整代码

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf# 模型保存
tf.app.flags.DEFINE_string("model_path", "./linear_regression/", "模型保存的路径和文件名")
FLAGS = tf.app.flags.FLAGSdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列with tf.variable_scope("original_data"):  # 表示正在创建数据X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7with tf.variable_scope("linear_model"): # 初始化变量# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + biaswith tf.variable_scope("loss"):  # 确定误差# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))with tf.variable_scope("gd_optimizer"):  # 构建优化器# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 收集变量tf.summary.scalar("error", error)tf.summary.histogram("weights", weights)tf.summary.histogram("bias", bias)# 合并变量merge=tf.summary.merge_all()# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 创建事件文件,将事件写入到ligdir中的目录中file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))# 运行合并变量opsummary=sess.run(merge)file_writer.add_summary(summary,i)return Nonedef main(argv):print("这是main函数")print(argv)print(FLAGS.model_path)linear_regression()if __name__ == '__main__':tf.app.run()

都看到这里了,点个赞呗!!!!!

这篇关于TensorFlow介绍二-线性回归案例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1135184

相关文章

MySQL中慢SQL优化的不同方式介绍

《MySQL中慢SQL优化的不同方式介绍》慢SQL的优化,主要从两个方面考虑,SQL语句本身的优化,以及数据库设计的优化,下面小编就来给大家介绍一下有哪些方式可以优化慢SQL吧... 目录避免不必要的列分页优化索引优化JOIN 的优化排序优化UNION 优化慢 SQL 的优化,主要从两个方面考虑,SQL 语

C++中函数模板与类模板的简单使用及区别介绍

《C++中函数模板与类模板的简单使用及区别介绍》这篇文章介绍了C++中的模板机制,包括函数模板和类模板的概念、语法和实际应用,函数模板通过类型参数实现泛型操作,而类模板允许创建可处理多种数据类型的类,... 目录一、函数模板定义语法真实示例二、类模板三、关键区别四、注意事项 ‌在C++中,模板是实现泛型编程

Python实现html转png的完美方案介绍

《Python实现html转png的完美方案介绍》这篇文章主要为大家详细介绍了如何使用Python实现html转png功能,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 1.增强稳定性与错误处理建议使用三层异常捕获结构:try: with sync_playwright(

Java使用多线程处理未知任务数的方案介绍

《Java使用多线程处理未知任务数的方案介绍》这篇文章主要为大家详细介绍了Java如何使用多线程实现处理未知任务数,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 知道任务个数,你可以定义好线程数规则,生成线程数去跑代码说明:1.虚拟线程池:使用 Executors.newVir

MySQL中实现多表查询的操作方法(配sql+实操图+案例巩固 通俗易懂版)

《MySQL中实现多表查询的操作方法(配sql+实操图+案例巩固通俗易懂版)》本文主要讲解了MySQL中的多表查询,包括子查询、笛卡尔积、自连接、多表查询的实现方法以及多列子查询等,通过实际例子和操... 目录复合查询1. 回顾查询基本操作group by 分组having1. 显示部门号为10的部门名,员

JAVA SE包装类和泛型详细介绍及说明方法

《JAVASE包装类和泛型详细介绍及说明方法》:本文主要介绍JAVASE包装类和泛型的相关资料,包括基本数据类型与包装类的对应关系,以及装箱和拆箱的概念,并重点讲解了自动装箱和自动拆箱的机制,文... 目录1. 包装类1.1 基本数据类型和对应的包装类1.2 装箱和拆箱1.3 自动装箱和自动拆箱2. 泛型2

Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)

《Python爬虫selenium验证之中文识别点选+图片验证码案例(最新推荐)》本文介绍了如何使用Python和Selenium结合ddddocr库实现图片验证码的识别和点击功能,感兴趣的朋友一起看... 目录1.获取图片2.目标识别3.背景坐标识别3.1 ddddocr3.2 打码平台4.坐标点击5.图

使用Navicat工具比对两个数据库所有表结构的差异案例详解

《使用Navicat工具比对两个数据库所有表结构的差异案例详解》:本文主要介绍如何使用Navicat工具对比两个数据库test_old和test_new,并生成相应的DDLSQL语句,以便将te... 目录概要案例一、如图两个数据库test_old和test_new进行比较:二、开始比较总结概要公司存在多

四种Flutter子页面向父组件传递数据的方法介绍

《四种Flutter子页面向父组件传递数据的方法介绍》在Flutter中,如果父组件需要调用子组件的方法,可以通过常用的四种方式实现,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录方法 1:使用 GlobalKey 和 State 调用子组件方法方法 2:通过回调函数(Callb

SpringBoot实现动态插拔的AOP的完整案例

《SpringBoot实现动态插拔的AOP的完整案例》在现代软件开发中,面向切面编程(AOP)是一种非常重要的技术,能够有效实现日志记录、安全控制、性能监控等横切关注点的分离,在传统的AOP实现中,切... 目录引言一、AOP 概述1.1 什么是 AOP1.2 AOP 的典型应用场景1.3 为什么需要动态插