02 TensorFlow 2.0:前向传播之张量实战

2024-06-23 21:48

本文主要是介绍02 TensorFlow 2.0:前向传播之张量实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

你是前世未止的心跳
你是来生胸前的记号
未见分晓
怎么把你忘掉
                                                                                                                                《千年》

内容覆盖:

  • convert to tensor
  • reshape
  • slices
  • broadcast (mechanism)
import tensorflow as tf
print(tf.__version__)import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'import warnings
warnings.filterwarnings('ignore')from tensorflow import keras
from tensorflow.keras import datasets
2.0.0-alpha0

1. global constants setting

lr = 1e-3
epochs = 10

2. load data and tensor object 0-1

## load mnist data
# x: [6w, 28, 28]
# y: [6w]
(x,y),_ = datasets.mnist.load_data()
## x: 0-255. => 0-1.
x = tf.convert_to_tensor(x, dtype=tf.float32)/255.
y = tf.convert_to_tensor(y, dtype=tf.int32)
print(x.shape, y.shape)
print(tf.reduce_max(x), tf.reduce_min(x))
print(tf.reduce_max(y), tf.reduce_min(y))
(60000, 28, 28) (60000,)
tf.Tensor(1.0, shape=(), dtype=float32) tf.Tensor(0.0, shape=(), dtype=float32)
tf.Tensor(9, shape=(), dtype=int32) tf.Tensor(0, shape=(), dtype=int32)

3. split batch

## split batches
# x: [128, 28, 28]
# y: [128, 28, 28]
train_db = tf.data.Dataset.from_tensor_slices((x, y)).batch(128)
train_iter_ = iter(train_db)
sample_ = next(train_iter_)
print('first batch & next batch:', sample_[0].shape, len(sample), sample_[1])
first batch & next batch: (96, 784) 2 tf.Tensor( [3 4 5 6 7 8 9 0 1 2 3 4 8 9 0 1 2 3 4 5 6 7 8 9 6 0 3 4 1 4 0 7 8 7 7 9 0 4 9 4 0 5 8 5 9 8 8 4 0 7 1 3 5 3 1 6 5 3 8 7 3 1 6 8 5 9 2 2 0 9 2 4 6 7 3 1 3 6 6 2 1 2 6 0 7 8 9 2 9 5 1 8 3 5 6 8], shape=(96,), dtype=int32)

4. parameters init

## parameters init. in order to adapt below GradientTape(),parameters must to be tf.Variable
w1 = tf.Variable(tf.random.truncated_normal([28*28, 256], stddev=0.1)) # truncated normal init
b1 = tf.Variable(tf.zeros([256]))
w2 = tf.Variable(tf.random.truncated_normal([256, 128], stddev=0.1))
b2 = tf.Variable(tf.zeros([128]))
w3 = tf.Variable(tf.random.truncated_normal([128, 10], stddev=0.1))
b3 = tf.Variable(tf.zeros([10]))

5. compute(update) loss&gradient for each epoch&batch

## for each epoch
for epoch in range(epochs):## for each batchfor step, (x, y) in enumerate(train_db): # x: [b, 28, 28] => [b, 28*28]x = tf.reshape(x, [-1, 28*28])## compute forward output for each batchwith tf.GradientTape() as tape: # GradientTape below parameters must be tf.Variable# print(x.shape, w1.shape, b1.shape)h1 = x@w1 + b1 # implicitly,b1 ([256]) broadcast_to [b,256]h1 = tf.nn.relu(h1)h2 = h1@w2 + b2 # like aboveh2 = tf.nn.relu(h2)h3 = h2@w3 + b3 # like aboveout = tf.nn.relu(h3)## copute lossy_onehot = tf.one_hot(y, depth=10)loss = tf.reduce_mean(tf.square(y_onehot - out)) # loss is scalar## compute gradientsgrads = tape.gradient(loss, [w1, b1, w2, b2, w3, b3])# update parametersw1.assign_sub(lr*grads[0])b1.assign_sub(lr*grads[1])w2.assign_sub(lr*grads[2])b2.assign_sub(lr*grads[3])w3.assign_sub(lr*grads[4])b3.assign_sub(lr*grads[5])if step%100==0:print('epoch/step:', epoch, step,'loss:', float(loss))
epoch/step: 0 0 loss: 0.18603835999965668
epoch/step: 0 100 loss: 0.13570542633533478
epoch/step: 0 200 loss: 0.11861399561166763
epoch/step: 0 300 loss: 0.11322200298309326
epoch/step: 0 400 loss: 0.10488209873437881
epoch/step: 1 0 loss: 0.10238083451986313
epoch/step: 1 100 loss: 0.10504438728094101
epoch/step: 1 200 loss: 0.10291490703821182
epoch/step: 1 300 loss: 0.10242557525634766
epoch/step: 1 400 loss: 0.09785071760416031
epoch/step: 2 0 loss: 0.09843370318412781
epoch/step: 2 100 loss: 0.10121582448482513
epoch/step: 2 200 loss: 0.0993235856294632
epoch/step: 2 300 loss: 0.09929462522268295
epoch/step: 2 400 loss: 0.09492874145507812
epoch/step: 3 0 loss: 0.09640722721815109
epoch/step: 3 100 loss: 0.09940245747566223
epoch/step: 3 200 loss: 0.0968528538942337
epoch/step: 3 300 loss: 0.09739632904529572
epoch/step: 3 400 loss: 0.09268360584974289
epoch/step: 4 0 loss: 0.09469369798898697
epoch/step: 4 100 loss: 0.09802170842885971
epoch/step: 4 200 loss: 0.09442965686321259
epoch/step: 4 300 loss: 0.09557832777500153
epoch/step: 4 400 loss: 0.09028112888336182
epoch/step: 5 0 loss: 0.09288302809000015
epoch/step: 5 100 loss: 0.09671110659837723
epoch/step: 5 200 loss: 0.09200755506753922
epoch/step: 5 300 loss: 0.09379477798938751
epoch/step: 5 400 loss: 0.0879468247294426
epoch/step: 6 0 loss: 0.09075240045785904
epoch/step: 6 100 loss: 0.09545578807592392
epoch/step: 6 200 loss: 0.08961271494626999
epoch/step: 6 300 loss: 0.09208488464355469
epoch/step: 6 400 loss: 0.08578769862651825
epoch/step: 7 0 loss: 0.08858789503574371
epoch/step: 7 100 loss: 0.09415780007839203
epoch/step: 7 200 loss: 0.08701150119304657
epoch/step: 7 300 loss: 0.09043200314044952
epoch/step: 7 400 loss: 0.08375751972198486
epoch/step: 8 0 loss: 0.08612515032291412
epoch/step: 8 100 loss: 0.09273834526538849
epoch/step: 8 200 loss: 0.08432737737894058
epoch/step: 8 300 loss: 0.08866600692272186
epoch/step: 8 400 loss: 0.08179832994937897
epoch/step: 9 0 loss: 0.08383172750473022
epoch/step: 9 100 loss: 0.09108485281467438
epoch/step: 9 200 loss: 0.08158060908317566
epoch/step: 9 300 loss: 0.08686531335115433
epoch/step: 9 400 loss: 0.0796399861574173

6. notice

  • 训练出来loss为nan或者不变等情况
    可能出现梯度爆炸等情况,这里可能需要 change parameter init等,比如这里利用 m u = 0 , s t d = 0.1 mu=0, std=0.1 mu=0,std=0.1截尾normal初始化权重 w w w
    参见一些解释:为什么用tensorflow训练网络,出现了loss=nan,accuracy总是一个固定值?

这篇关于02 TensorFlow 2.0:前向传播之张量实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1088366

相关文章

Java 队列Queue从原理到实战指南

《Java队列Queue从原理到实战指南》本文介绍了Java中队列(Queue)的底层实现、常见方法及其区别,通过LinkedList和ArrayDeque的实现,以及循环队列的概念,展示了如何高效... 目录一、队列的认识队列的底层与集合框架常见的队列方法插入元素方法对比(add和offer)移除元素方法

Spring Boot基于 JWT 优化 Spring Security 无状态登录实战指南

《SpringBoot基于JWT优化SpringSecurity无状态登录实战指南》本文介绍如何使用JWT优化SpringSecurity实现无状态登录,提高接口安全性,并通过实际操作步骤... 目录Spring Boot 实战:基于 JWT 优化 Spring Security 无状态登录一、先搞懂:为什

C++11中的包装器实战案例

《C++11中的包装器实战案例》本文给大家介绍C++11中的包装器实战案例,本文结合实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录引言1.std::function1.1.什么是std::function1.2.核心用法1.2.1.包装普通函数1.2.

Nginx概念、架构、配置与虚拟主机实战操作指南

《Nginx概念、架构、配置与虚拟主机实战操作指南》Nginx是一个高性能的HTTP服务器、反向代理服务器、负载均衡器和IMAP/POP3/SMTP代理服务器,它支持高并发连接,资源占用低,功能全面且... 目录Nginx 深度解析:概念、架构、配置与虚拟主机实战一、Nginx 的概念二、Nginx 的特点

Spring IOC核心原理详解与运用实战教程

《SpringIOC核心原理详解与运用实战教程》本文详细解析了SpringIOC容器的核心原理,包括BeanFactory体系、依赖注入机制、循环依赖解决和三级缓存机制,同时,介绍了SpringBo... 目录1. Spring IOC核心原理深度解析1.1 BeanFactory体系与内部结构1.1.1

Redis 命令详解与实战案例

《Redis命令详解与实战案例》本文详细介绍了Redis的基础知识、核心数据结构与命令、高级功能与命令、最佳实践与性能优化,以及实战应用场景,通过实战案例,展示了如何使用Redis构建高性能应用系统... 目录Redis 命令详解与实战案例一、Redis 基础介绍二、Redis 核心数据结构与命令1. 字符

在SpringBoot+MyBatis项目中实现MySQL读写分离的实战指南

《在SpringBoot+MyBatis项目中实现MySQL读写分离的实战指南》在SpringBoot和MyBatis项目中实现MySQL读写分离,主要有两种思路:一种是在应用层通过代码和配置手动控制... 目录如何选择实现方案核心实现:应用层手动分离实施中的关键问题与解决方案总结在Spring Boot和

Python AST 模块实战演示

《PythonAST模块实战演示》Python的ast模块提供了一种处理Python代码的强大工具,通过解析代码生成抽象语法树(AST),可以进行代码分析、修改和生成,接下来通过本文给大家介绍Py... 目录 什么是抽象语法树(AST)️ ast 模块的核心用法1. 解析代码生成 AST2. 查看 AST

C++ 多态性实战之何时使用 virtual 和 override的问题解析

《C++多态性实战之何时使用virtual和override的问题解析》在面向对象编程中,多态是一个核心概念,很多开发者在遇到override编译错误时,不清楚是否需要将基类函数声明为virt... 目录C++ 多态性实战:何时使用 virtual 和 override?引言问题场景判断是否需要多态的三个关

MySQL 批量插入的原理和实战方法(快速提升大数据导入效率)

《MySQL批量插入的原理和实战方法(快速提升大数据导入效率)》在日常开发中,我们经常需要将大量数据批量插入到MySQL数据库中,本文将介绍批量插入的原理、实现方法,并结合Python和PyMySQ... 目录一、批量插入的优势二、mysql 表的创建示例三、python 实现批量插入1. 安装 PyMyS