1.tensorflow线性回归示例:保存模型,载入模型,打印模型参数,修改模型

本文主要是介绍1.tensorflow线性回归示例:保存模型,载入模型,打印模型参数,修改模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

#coding:utf-8
'''
a liner regression by tenosrflow.
input dimension: 1, output dimension: 1.
显示每个epoch的loss
利用模型预测
保存模型
载入模型
打印模型中的参数
修改模型中的参数
'''
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow.python.tools.inspect_checkpoint import print_tensors_in_checkpoint_file# data
x_train = np.linspace(-1, 1, 100)
y_train = 10 * x_train + np.random.randn(x_train.shape[0])
# plt.plot(x_train, y_train, "ro", label="data")
# plt.legend()
# plt.show()epochs = 30
display_step = 2
# input, output
x = tf.placeholder(dtype="float", name="input")
y = tf.placeholder(dtype="float", name="label")
# w, b
w = tf.Variable(initial_value=tf.random_normal([1]), name="weight")
b = tf.Variable(initial_value=tf.zeros([1]), name="bias")
# model
z = tf.multiply(x, w) + b
# loss functon
cost = tf.reduce_mean(tf.square(y - z))
# optimizer
optim = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(cost)
saver = tf.train.Saver(max_to_keep=4)  # save 4 model
init = tf.global_variables_initializer()
with tf.Session() as sess:sess.run(init)for epoch in range(epochs):for x_batch, y_batch in zip(x_train, y_train):  # batch is all data theresess.run(optim, feed_dict={x:x_batch, y:y_batch})if epoch % display_step ==0:loss = sess.run(cost, feed_dict={x:x_train, y:y_train})print("epoch: %d, loss: %d" %(epoch, loss))# 保存训练过程中的模型saver.save(sess, "line_regression_model/regress.cpkt", global_step=epoch)print("train finished...")# 保存最终的模型saver.save(sess, "line_regression_model/regress.cpkt")print("final loss:", sess.run(cost, feed_dict={x:x_train, y:y_train}))print("weight:", sess.run(w))print("bias:", sess.run(b))# show train data and predict dataplt.plot(x_train, y_train, "ro", label="train")predict = sess.run(w) * x_train + sess.run(b)plt.plot(x_train, predict, "b", label="predict")plt.legend()plt.show()# 载入模型
print("*"*50)
saver = tf.train.Saver()
with tf.Session() as sess2:sess2.run(tf.global_variables_initializer())saver.restore(sess2, "line_regression_model/regress.cpkt")print(sess2.run(w))print(sess2.run(b))predict2 = sess2.run(z, feed_dict={x:0.5})print(predict2)# 打印出模型中的变量及参数
print("-"*50)
print("the params in model:")
print_tensors_in_checkpoint_file("line_regression_model/regress.cpkt", None, True)# 修改模型中的参数,并重新保存
print("-"*50)
# 以上得到了模型中参数名字为weight,bias, 下面对他们进行修改
w_change = tf.Variable(10, name="weight")
b_change = tf.Variable(0.001, name="bias")
# 把他们放到一个字典里并写在saver里
saver = tf.train.Saver({"weighs":w_change, "bias":b_change})
with tf.Session() as sess3:sess3.run(tf.global_variables_initializer())# 保存修改后的参数saver.save(sess3, "line_regression_model/regress.cpkt")
# 发现参数已经被修改
print_tensors_in_checkpoint_file("line_regression_model/regress.cpkt", None, True)

输出:

/usr/local/bin/python2.7 /Users/ming/Downloads/zhangming/tf_demo/liner_regression.py
2018-11-17 16:07:32.138907: I tensorflow/core/platform/cpu_feature_guard.cc:140] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 FMA
epoch: 0, loss: 21
epoch: 2, loss: 2
epoch: 4, loss: 1
epoch: 6, loss: 1
epoch: 8, loss: 1
epoch: 10, loss: 1
epoch: 12, loss: 1
epoch: 14, loss: 1
epoch: 16, loss: 1
epoch: 18, loss: 1
epoch: 20, loss: 1
epoch: 22, loss: 1
epoch: 24, loss: 1
epoch: 26, loss: 1
epoch: 28, loss: 1
train finished...
('final loss:', 1.0535882)
('weight:', array([10.063329], dtype=float32))
('bias:', array([0.03052005], dtype=float32))
**************************************************
[10.063329]
[0.03052005]
[5.0621843]
--------------------------------------------------
the params in model:
tensor_name:  bias
[0.03052005]
tensor_name:  weight
[10.063329]
--------------------------------------------------
tensor_name:  bias
0.001
tensor_name:  weighs
10
 

这篇关于1.tensorflow线性回归示例:保存模型,载入模型,打印模型参数,修改模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/986052

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

C++11第三弹:lambda表达式 | 新的类功能 | 模板的可变参数

🌈个人主页: 南桥几晴秋 🌈C++专栏: 南桥谈C++ 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据库学习专栏: 南桥谈MySQL 🌈Qt学习专栏: 南桥谈Qt 🌈菜鸡代码练习: 练习随想记录 🌈git学习: 南桥谈Git 🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈�

如何在页面调用utility bar并传递参数至lwc组件

1.在app的utility item中添加lwc组件: 2.调用utility bar api的方式有两种: 方法一,通过lwc调用: import {LightningElement,api ,wire } from 'lwc';import { publish, MessageContext } from 'lightning/messageService';import Ca

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言