【TensorFlow深度学习】前向传播实战:从理论到代码实现

2024-04-27 11:04

本文主要是介绍【TensorFlow深度学习】前向传播实战:从理论到代码实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前向传播实战:从理论到代码实现

    • 1. 前向传播理论基础
      • 1.1 激活函数
      • 1.2 损失函数
    • 2. 构建神经网络
      • 2.1 导入TensorFlow
      • 2.2 定义网络参数
      • 2.3 初始化权重和偏置
      • 2.4 实现前向传播
    • 3. 损失函数和梯度计算
      • 3.1 定义损失函数
      • 3.2 计算梯度
    • 4. 参数更新和训练过程
      • 4.1 选择优化器
      • 4.2 更新参数
      • 4.3 训练循环
    • 5. 结果评估
      • 5.1 模型预测
      • 5.2 计算准确率
    • 6. 总结

在深度学习中,前向传播是神经网络核心算法之一,它涉及从输入层到输出层的数据传递和计算过程。本文将深入探讨前向传播的理论基础,并展示如何在TensorFlow框架中实现这一过程。我们将通过构建一个简单的三层神经网络,来理解前向传播的每个步骤。

1. 前向传播理论基础

前向传播是神经网络中信号从输入层通过隐藏层传递到输出层的过程。在数学上,一个神经网络层的输出可以通过以下公式计算:
[ \text{Output} = \text{Activation}(\text{Weights} \times \text{Input} + \text{Bias}) ]
其中,Activation是激活函数,Weights是权重矩阵,Input是输入数据,Bias是偏置项。

1.1 激活函数

激活函数在神经网络中起到非线性变换的作用,常见的激活函数包括ReLU、Sigmoid和Tanh等。

1.2 损失函数

损失函数用于评估神经网络的输出与真实值之间的差异,常见的损失函数包括均方误差(MSE)和交叉熵(Cross-Entropy)等。

2. 构建神经网络

在TensorFlow中,我们可以通过以下步骤构建一个简单的三层神经网络:

2.1 导入TensorFlow

import tensorflow as tf

2.2 定义网络参数

input_size = 784  # 输入特征长度
hidden_size_1 = 256  # 第一个隐藏层节点数
hidden_size_2 = 128  # 第二个隐藏层节点数
output_size = 10  # 输出层节点数(例如MNIST手写数字识别)

2.3 初始化权重和偏置

# 权重和偏置初始化为正态分布
weights_1 = tf.Variable(tf.random.normal([input_size, hidden_size_1]))
biases_1 = tf.Variable(tf.random.normal([hidden_size_1]))
weights_2 = tf.Variable(tf.random.normal([hidden_size_1, hidden_size_2]))
biases_2 = tf.Variable(tf.random.normal([hidden_size_2]))
weights_out = tf.Variable(tf.random.normal([hidden_size_2, output_size]))
biases_out = tf.Variable(tf.random.normal([output_size]))

2.4 实现前向传播

def forward_propagation(inputs):with tf.GradientTape() as tape:# 第一个隐藏层的激活值hidden_1 = tf.nn.relu(tf.matmul(inputs, weights_1) + biases_1)# 第二个隐藏层的激活值hidden_2 = tf.nn.relu(tf.matmul(hidden_1, weights_2) + biases_2)# 输出层的原始分数(未应用激活函数)outputs = tf.matmul(hidden_2, weights_out) + biases_outreturn outputs

3. 损失函数和梯度计算

在前向传播的基础上,我们定义损失函数并计算梯度,以便进行参数更新。

3.1 定义损失函数

def compute_loss(outputs, labels):return tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=outputs))

3.2 计算梯度

with tf.GradientTape() as tape:logits = forward_propagation(inputs)loss = compute_loss(logits, labels)
grads = tape.gradient(loss, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out])

4. 参数更新和训练过程

使用优化器根据计算出的梯度更新网络参数。

4.1 选择优化器

optimizer = tf.optimizers.Adam()

4.2 更新参数

optimizer.apply_gradients(zip(grads, [weights_1, biases_1, weights_2, biases_2, weights_out, biases_out]))

4.3 训练循环

for epoch in range(num_epochs):for step, (x_batch, y_batch) in enumerate(train_dataset):with tf.GradientTape() as tape:logits = forward_propagation(x_batch)loss = compute_loss(logits, y_batch)grads = tape.gradient(loss, tf.trainable_variables())optimizer.apply_gradients(zip(grads, tf.trainable_variables()))if step % 100 == 0:print(f"Epoch {epoch}, Step {step}, Loss: {loss.numpy()}")

5. 结果评估

在训练完成后,我们通常需要评估模型的性能。

5.1 模型预测

predictions = forward_propagation(test_inputs)

5.2 计算准确率

accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.argmax(predictions, 1), tf.argmax(test_labels, 1)), tf.float32))
print(f"Accuracy: {accuracy.numpy()}")

6. 总结

本文详细介绍了前向传播的理论基础和在TensorFlow中的实现方法。通过构建一个简单的神经网络模型,我们展示了从初始化参数到前向传播,再到损失计算和参数更新的完整流程。这为进一步探索深度学习模型提供了坚实的基础。

这篇关于【TensorFlow深度学习】前向传播实战:从理论到代码实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/940331

相关文章

C++对象布局及多态实现探索之内存布局(整理的很多链接)

本文通过观察对象的内存布局,跟踪函数调用的汇编代码。分析了C++对象内存的布局情况,虚函数的执行方式,以及虚继承,等等 文章链接:http://dev.yesky.com/254/2191254.shtml      论C/C++函数间动态内存的传递 (2005-07-30)   当你涉及到C/C++的核心编程的时候,你会无止境地与内存管理打交道。 文章链接:http://dev.yesky

51单片机学习记录———定时器

文章目录 前言一、定时器介绍二、STC89C52定时器资源三、定时器框图四、定时器模式五、定时器相关寄存器六、定时器练习 前言 一个学习嵌入式的小白~ 有问题评论区或私信指出~ 提示:以下是本篇文章正文内容,下面案例可供参考 一、定时器介绍 定时器介绍:51单片机的定时器属于单片机的内部资源,其电路的连接和运转均在单片机内部完成。 定时器作用: 1.用于计数系统,可

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

Javascript高级程序设计(第四版)--学习记录之变量、内存

原始值与引用值 原始值:简单的数据即基础数据类型,按值访问。 引用值:由多个值构成的对象即复杂数据类型,按引用访问。 动态属性 对于引用值而言,可以随时添加、修改和删除其属性和方法。 let person = new Object();person.name = 'Jason';person.age = 42;console.log(person.name,person.age);//'J

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

uniapp接入微信小程序原生代码配置方案(优化版)

uniapp项目需要把微信小程序原生语法的功能代码嵌套过来,无需把原生代码转换为uniapp,可以配置拷贝的方式集成过来 1、拷贝代码包到src目录 2、vue.config.js中配置原生代码包直接拷贝到编译目录中 3、pages.json中配置分包目录,原生入口组件的路径 4、manifest.json中配置分包,使用原生组件 5、需要把原生代码包里的页面修改成组件的方

公共筛选组件(二次封装antd)支持代码提示

如果项目是基于antd组件库为基础搭建,可使用此公共筛选组件 使用到的库 npm i antdnpm i lodash-esnpm i @types/lodash-es -D /components/CommonSearch index.tsx import React from 'react';import { Button, Card, Form } from 'antd'

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue: