TensorFlow介绍二-线性回归案例

2024-09-04 05:52

本文主要是介绍TensorFlow介绍二-线性回归案例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一.案例步骤

1.准备数据集:y=0.8x+0.7  100个样本

2.建立线性模型,初始化w和b变量

3.确定损失函数(预测值与真实值之间的误差),均方误差

4.梯度下降优化损失

二.完整功能代码:

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tfdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + bias# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))return Noneif __name__ == '__main__':linear_regression()

三.增加其他功能

1.增加命名空间

使代码结构更加清晰,Tensorboard图结构更加清楚,

使用tf.variable_scope方法,里面的名字自己定义

with tf.variable_scope("lr_model"):

2.收集变量

这样更容易观察参数的更新情况 

3.写入事件

使用tensorboard观察,在命令行中切换到事件所在文件目录,使用命令:

tensorboard --logdir="事件所在的文件目录"

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tfdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列with tf.variable_scope("original_data"):  # 表示正在创建数据X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7with tf.variable_scope("linear_model"): # 初始化变量# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + biaswith tf.variable_scope("loss"):  # 确定误差# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))with tf.variable_scope("gd_optimizer"):  # 构建优化器# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 收集变量tf.summary.scalar("error", error)tf.summary.histogram("weights", weights)tf.summary.histogram("bias", bias)# 合并变量merge=tf.summary.merge_all()# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 创建事件文件,将事件写入到ligdir中的目录中file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))# 运行合并变量opsummary=sess.run(merge)file_writer.add_summary(summary,i)return Noneif __name__ == '__main__':linear_regression()

 四.模型的保存和加载

tf.train.Saver(var_list=None,max_to_keep=5)

保存和加载模型(保存文件格式:checkpoint文件)
var_list:指定将要保存和还原的变量。它可以作为一个dict或一个列表传递.
max_to_keep:指示要保留的最近检查点文件的最大数量。创建新文件时,会删除较旧的文件。如果无或0,则保留所有检查点文件。默认为5(即保留最新的5个检查点文件。)

例如

# 指定目录+模型名字
# 保存
saver.save(sess, '/tmp/ckpt/test/myregression.ckpt')
# 加载
saver.restore(sess, '/tmp/ckpt/test/myregression.ckpt')

如果判断模型是否存在,直接指定目录

checkpoint = tf.train.latest_checkpoint("./tmp/model/")saver.restore(sess, checkpoint)

五.命令行参数使用

1.tf.app.flags,它支持应用从命令行接收参数,可以用来指定集训配置等,在tf.app.flags下面各种定义参数的类型

2、 tf.app.flags.,在flags有一个FLAGS标志,它在程序中可以调用到我们

前面具体定义的flag_name

3.通过tf.app.run()启动main(argv)函数

# 定义一些常用的命令行参数
# 训练步数
tf.app.flags.DEFINE_integer("max_step", 0, "训练模型的步数")
# 定义模型的路径
tf.app.flags.DEFINE_string("model_dir", " ", "模型保存的路径+模型名字")# 定义获取命令行参数
FLAGS = tf.app.flags.FLAGS# 开启训练
# 训练的步数(依据模型大小而定)
for i in range(FLAGS.max_step):sess.run(train_op)

六.完整代码

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'
import tensorflow as tf# 模型保存
tf.app.flags.DEFINE_string("model_path", "./linear_regression/", "模型保存的路径和文件名")
FLAGS = tf.app.flags.FLAGSdef linear_regression():"""自实现线性回归:return: None"""# 构造数据X为一百行一列with tf.variable_scope("original_data"):  # 表示正在创建数据X = tf.random_normal(shape=(100, 1), mean=2, stddev=2)# 真实值,y=x*0.8+0.7,这里X为tf.tensor数据在乘的时候要使用二维数据y_true = tf.matmul(X, [[0.8]]) + 0.7with tf.variable_scope("linear_model"): # 初始化变量# 使用Variable初始化w,b,因为w和b要参与更新所有要使用变量。trainable是设置这个变量是否参与训练weights = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)bias = tf.Variable(initial_value=tf.random_normal(shape=(1, 1)),trainable=True)# 构造预测值,使用X乘上更新后的变量w加上by_predict = tf.matmul(X, weights) + biaswith tf.variable_scope("loss"):  # 确定误差# 计算均方误差,用真实值减去预测值的平方,因为这是一百个数据,使用要求它的平均值error = tf.reduce_mean(tf.square(y_predict - y_true))with tf.variable_scope("gd_optimizer"):  # 构建优化器# 构建优化器,这里使用的是梯度下降优化误差来更新w和b,0.01是学习率optimizer = tf.train.GradientDescentOptimizer(0.01).minimize(error)# 收集变量tf.summary.scalar("error", error)tf.summary.histogram("weights", weights)tf.summary.histogram("bias", bias)# 合并变量merge=tf.summary.merge_all()# 初始化变量init = tf.global_variables_initializer()with tf.Session() as sess:  # 会话# 运行初始化变量opsess.run(init)# 打印一下初始化的权重和偏置print("随机初始化的权重为%f, 偏置为%f" % (weights.eval(), bias.eval()))# 创建事件文件,将事件写入到ligdir中的目录中file_writer=tf.summary.FileWriter(logdir="./summary",graph=sess.graph)# 开始训练,训练的次数越多越接近真实值for i in range(100):sess.run(optimizer)# 打印每一次更新后的权重,偏置,误差print("第%d步的误差为%f,权重为%f, 偏置为%f" % (i, error.eval(), weights.eval(), bias.eval()))# 运行合并变量opsummary=sess.run(merge)file_writer.add_summary(summary,i)return Nonedef main(argv):print("这是main函数")print(argv)print(FLAGS.model_path)linear_regression()if __name__ == '__main__':tf.app.run()

都看到这里了,点个赞呗!!!!!

这篇关于TensorFlow介绍二-线性回归案例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1135184

相关文章

性能测试介绍

性能测试是一种测试方法,旨在评估系统、应用程序或组件在现实场景中的性能表现和可靠性。它通常用于衡量系统在不同负载条件下的响应时间、吞吐量、资源利用率、稳定性和可扩展性等关键指标。 为什么要进行性能测试 通过性能测试,可以确定系统是否能够满足预期的性能要求,找出性能瓶颈和潜在的问题,并进行优化和调整。 发现性能瓶颈:性能测试可以帮助发现系统的性能瓶颈,即系统在高负载或高并发情况下可能出现的问题

水位雨量在线监测系统概述及应用介绍

在当今社会,随着科技的飞速发展,各种智能监测系统已成为保障公共安全、促进资源管理和环境保护的重要工具。其中,水位雨量在线监测系统作为自然灾害预警、水资源管理及水利工程运行的关键技术,其重要性不言而喻。 一、水位雨量在线监测系统的基本原理 水位雨量在线监测系统主要由数据采集单元、数据传输网络、数据处理中心及用户终端四大部分构成,形成了一个完整的闭环系统。 数据采集单元:这是系统的“眼睛”,

Hadoop企业开发案例调优场景

需求 (1)需求:从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 (2)需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台 ≈ 3个任务(4    3    3) HDFS参数调优 (1)修改:hadoop-env.sh export HDFS_NAMENOD

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

性能分析之MySQL索引实战案例

文章目录 一、前言二、准备三、MySQL索引优化四、MySQL 索引知识回顾五、总结 一、前言 在上一讲性能工具之 JProfiler 简单登录案例分析实战中已经发现SQL没有建立索引问题,本文将一起从代码层去分析为什么没有建立索引? 开源ERP项目地址:https://gitee.com/jishenghua/JSH_ERP 二、准备 打开IDEA找到登录请求资源路径位置

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【区块链 + 人才服务】可信教育区块链治理系统 | FISCO BCOS应用案例

伴随着区块链技术的不断完善,其在教育信息化中的应用也在持续发展。利用区块链数据共识、不可篡改的特性, 将与教育相关的数据要素在区块链上进行存证确权,在确保数据可信的前提下,促进教育的公平、透明、开放,为教育教学质量提升赋能,实现教育数据的安全共享、高等教育体系的智慧治理。 可信教育区块链治理系统的顶层治理架构由教育部、高校、企业、学生等多方角色共同参与建设、维护,支撑教育资源共享、教学质量评估、

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

客户案例:安全海外中继助力知名家电企业化解海外通邮困境

1、客户背景 广东格兰仕集团有限公司(以下简称“格兰仕”),成立于1978年,是中国家电行业的领军企业之一。作为全球最大的微波炉生产基地,格兰仕拥有多项国际领先的家电制造技术,连续多年位列中国家电出口前列。格兰仕不仅注重业务的全球拓展,更重视业务流程的高效与顺畅,以确保在国际舞台上的竞争力。 2、需求痛点 随着格兰仕全球化战略的深入实施,其海外业务快速增长,电子邮件成为了关键的沟通工具。

【区块链 + 人才服务】区块链集成开发平台 | FISCO BCOS应用案例

随着区块链技术的快速发展,越来越多的企业开始将其应用于实际业务中。然而,区块链技术的专业性使得其集成开发成为一项挑战。针对此,广东中创智慧科技有限公司基于国产开源联盟链 FISCO BCOS 推出了区块链集成开发平台。该平台基于区块链技术,提供一套全面的区块链开发工具和开发环境,支持开发者快速开发和部署区块链应用。此外,该平台还可以提供一套全面的区块链开发教程和文档,帮助开发者快速上手区块链开发。