初识机器学习框架:TensorFlow1.X版本 的基础使用

2024-01-21 17:40

本文主要是介绍初识机器学习框架:TensorFlow1.X版本 的基础使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

学习网站:人工智能教程

TensorFlow的版本查看与安装

查看自己的TensorFlow版本:pip show tensorflow

这是我的:

关于TensorFlow 的安装配置确实有些麻烦,并且由于国外网站的原因,下载速度也许会非常的慢,所以这里推荐一下清华的镜像,TensorFlow的1.X版本和2.X版本有很大不同,这篇文章是介绍如何使用1.X版本的,但是请务必下载更新的版本,因为新版本也是包含旧版本的。

pip --default-timeout=100 install tensorflow==2.4.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

当然也可以看一下其他博主的博客,讲解的非常清楚,由于我已经安装过了,就不再重复演示

TensorFlow的基础使用

在Python中使用TensorFlow1.X ,首先需要导入TensorFlow的包:

//由于我下载的是2.X的版本,所以要使用1.X版本的话,需要写下面的语句
import tensorflow.compat.v1 as tf
tf.compat.v1.disable_eager_execution()
//如果本身就是1.X的版本,可以直接使用下面的语句
import tensorflow as tf

as tf 的作用是为了方便使用,这样我们在使用TensorFlow的时候就不用写全称了,直接使用tf即可

为了学习TensorFlow的框架,我们可以先实现一个简单的公式;

loss = L(\hat{y},y) = (\hat y^{(i)} - y^{(i)})^2

constant

constant 的作用就是定义一个Tensorflow的常量对象

y_hat = tf.constant(36, name='y_hat')            # 定义一个tensorflow常量
y = tf.constant(39, name='y') 

可以看到,y_hat 的值就是36,还定义了该Tensorflow常量对象的名称为y_hat,y则同理

Variable

下面计算一下loss:

loss = tf.Variable((y - y_hat)**2, name='loss')

 这里的Variable就是代表创建一个TensorFlow的常量对象,而loss就是那个常量对象,该对象的值就是执行了(y - y_hat)**2后的结果,此对象名称为loss

global_variables_initializer

global_variables_initializer用于创建TensorFlow的初始化对象,例如:

init = tf.global_variables_initializer()

这里创建了init的初始化对象,后面就可以调用init来初始化变量

Session

Session就非常重要了,他可以创建一个TensorFlow的Session对象,通过此对象,可以具体的执行前面的所有操作,我们加上Session来总结一下前面的代码:

y_hat = tf.constant(36, name='y_hat')            
y = tf.constant(39, name='y')                   loss = tf.Variable((y - y_hat)**2, name='loss')  init = tf.global_variables_initializer()                       
with tf.Session() as session:                    session.run(init)                        print(session.run(loss))   

前面四行的操作就不说了,我们将TensorFlow的Session对象命名为session,之后使用session的run方法执行init的计算,这里就体现出了一个思想:画图纸->建造

“画图纸->建造”思想

很久之前我们接触过一个叫做计算图的概念,计算图将整个计算的流程画出来,有助于我们一步一步的进行计算,思路更加清晰,而这里的前面四行代码其实就是构建了一个计算图;

但是也只是构建了一个计算图,并没有执行具体的计算,如果需要执行具体的计算,就需要使用TensorFlow中的Session中的run方法,这张计算图的结果才算是被计算出来了,也就是图纸上的建筑被建造出来了 

如果我们直接执行对init的输出操作,那输出的结果只会是init的关于TensorFlow的一些属性和信息,像这样:Tensor("Mul:0", shape=(), dtype=int32)

Session的不同写法 

方法一;

sess = tf.Session()
result = sess.run(..., feed_dict = {...})
sess.close() 

方法二:

with tf.Session() as sess: result = sess.run(..., feed_dict = {...})

本质上都是先创建一个Session对象,然后使用run方法执行计算图,需要注意的是Session需要关闭,即执行close,方法一需要手动关闭,方法二计算完成后就自动关闭。

placeholder占位符

 占位符可以为一个变量预先留好一个位置,只有在使用时再对占位符进行数值的填充操作;

x = tf.placeholder(tf.int64, name = 'x')
print(sess.run(2 * x, feed_dict = {x: 3}))
sess.close()

这里定义了一个x的占位符,数值大小为int64,名称为x

在我们执行2*x的时候,由于x是一个占位符,没有任何数据,所以此时就需要feed_dict语句给x赋值,feed_dict的语法差不多是固定的:feed_dict = {变量名 : 数值},然后将赋值后的变量带入到2*x中的x去,可以理解为一个从后到前的过程。

matmul

在机器学习中,我们对大量数据的操作一般都是使用的矩阵运算,在TensorFlow中,提供了一个矩阵运算的方法matmul

假如我们现在需要构建一个线性函数Z = WX + b ,其中W是特征向量,X是数据集,b是阈值向量,他们都需要进行矩阵运算,此时我们就可以使用matpul了:

def linear_function():   X = tf.constant(np.random.randn(3, 1), name = "X") W = tf.constant(np.random.randn(4, 3), name = "W")b = tf.constant(np.random.randn(4, 1), name = "b")Z = tf.add(tf.matmul(W, X), b)# tf.matmul函数会执行矩阵运算sess = tf.Session()result = sess.run(Z)sess.close()return result

这里的X是一个维度为(3,1)的常量,使用randn来随机产生值,下面同理

注意这里的Z,add顾名思义就不用多说了,相加操作,WX与b进行相加,matpul(X,W)则是执行了矩阵相乘。稍微思考一下,最后输出的result应该是一个(4,1)维度的向量

实现Sigmoid函数

在前面,我们大费周章讲解了Sigmoid的底层计算原理,但是在TensorFlow框架中,短短几行就完成了计算:

def sigmoid(z):x = tf.placeholder(tf.float32, name="x") sigmoid = tf.sigmoid(x) # 调用tensorflow的sigmoid函数,并且将占位符作为参数传递进去with tf.Session() as sess:result = sess.run(sigmoid, feed_dict = {x: z}) return result

回忆一下Sigmoid函数,它是需要我们的Z来执行计算的,所以显示定义了一个占位符,以便于后续填充Z的值,至于Sigmoid,只需要短短的一行代码就解决了战斗:tf.sigmoid(x),这里的x是在后面用run执行的时候填充进去的参数Z的值。

实现Cost函数

Cost是损失值,在前面的文章中,Cost我们使用纯数学公式和纯Python代码将其实现了,而使用TensorFlow,却只需要短短一行:

tf.nn.sigmoid_cross_entropy_with_logits(logits = ...,  labels = ...)

这里的logits指的是神经网络中最后一层输出的Z,label就是真实的标签y,不知道你们细不细心,为什么执行Cost计算只需要最后的Z就可以了呢?难道不是计算Sigmoid之后的A吗?其实这个函数除了帮我们执行计算损失之外,也自动为我们最后一层的Z执行了Sigmoid的计算

当然,如果你最后一层不想用Sigmoid,而是想用多分类函数SoftMax,TensorFlow也提供了方法:

tf.nn.softmax_cross_entropy_with_logits(logits = ..., labels = ...)

One-hot 独热编码

 假设我们要执行这样的操作:

这在一些多分类模型中经常使用,在TensorFlow中,也有对应的函数帮我们完成了:one_hot

def one_hot_matrix(labels, C_in):C = tf.constant(C_in, name='C')one_hot_matrix = tf.one_hot(indices=labels, depth=C, axis=0)sess = tf.Session()one_hot = sess.run(one_hot_matrix)sess.close()return one_hot

我们传入的label参数就是真实的标签,C_in就是一共有几个类别,比如上面那张图,只有0~3四个数字,那就是4类,C_in就是4,其他部分其实前面都讲过了,简单的一行tf.one_hot,就帮我们把所有的工作做完了,假如我们有label为:labels = np.array([1,2,3,0,2,1])

                                那我们执行:one_hot = one_hot_matrix(labels, C_in=4)

最后的输出就是这样的;

这篇关于初识机器学习框架:TensorFlow1.X版本 的基础使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/630319

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo