TensorFlow random_crop和multinomial等方法学习

2024-08-21 20:08

本文主要是介绍TensorFlow random_crop和multinomial等方法学习,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

在学习斯坦福大学TensorFlow教程第二节课(https://www.youtube.com/watch?v=9kC836XhICU&list=PLQ0sVbIj3URf94DQtGPJV629ctn2c1zN-&index=2)的时候,遇到几个随机数生成的方法,这里学习一下。

第一个是tf.random_normal(),该方法就是用正态分布产生随机数,默认是标准正态分布。

第二个是tf.truncated_normal(),该方法类似上一个,就是多了店截断操作,具体说就是产生正太分布的值如果与均值的差值大于两倍的标准差,那就重新生成。

第三个是tf.random_uniform(),该方法则是用均匀分布产生随机值,默认浮点数范围[0, 1),整数的话maxval要指定。均匀分布也就是(a, b)范围内,概率密度f(x) = 1 / (b - a),其他地方则为0。

第四个是tf.random_suffle(),每一次都把其中的一些行换位置或者不换,代码如下:

import tensorflow as tfa = tf.get_variable('a', [3, 2], initializer=tf.random_normal_initializer(mean=0, stddev=1))init_op = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init_op)print(sess.run(a))print(sess.run(tf.random_shuffle(a)))

结果如下:

[[ 2.0261083  -0.34673768][ 0.09152898  1.1487025 ][ 1.2850556   0.97470516]]
[[ 2.0261083  -0.34673768][ 1.2850556   0.97470516][ 0.09152898  1.1487025 ]]

这里所有行都没变,再执行一次:

[[ 0.5839885  -0.11081421][-0.4712714   0.40724093][-0.12657043 -0.03069498]]
[[-0.12657043 -0.03069498][ 0.5839885  -0.11081421][-0.4712714   0.40724093]]

发现行的位置变了,该函数的操作效果就是这样。我在写代码的时候,不小心把tf.global_variables_initializer()写在了变量a前面,这个时候程序报错。虽然我觉得还没用sess.run(),所以tf.global_variables_initializer()位置应该可以放前面的,不过确实不行。

第五个是tf.random_crop(),参考https://blog.csdn.net/sinat_21585785/article/details/74144800。例如我的原图为:

裁剪为:

再运行一次,裁剪为:

代码如下:

import tensorflow as tf
import matplotlib.image as img
import matplotlib.pyplot as pltsess = tf.InteractiveSession()
image = img.imread('MarshOrchid.jpg')reshaped_image = tf.cast(image, tf.float32)
size = tf.cast(tf.shape(reshaped_image).eval(), tf.int32)height = sess.run(size[0] // 2)
width = sess.run(size[1] // 2)distored_image = tf.random_crop(reshaped_image, [height, width, 3])print(tf.shape(reshaped_image).eval())
print(tf.shape(distored_image).eval())fig = plt.figure()
fig1 = plt.figure()ax = fig.add_subplot(111)
ax1 = fig1.add_subplot(111)ax.imshow(sess.run(tf.cast(reshaped_image, tf.uint8)))
ax1.imshow(sess.run(tf.cast(distored_image, tf.uint8)))plt.show()

这里用matplotlib.image的imread()方法读入图片,用tf.cast()方法将其数值转换为float32类型,然后打印其shape,我这里为[5528 3685    3]。接着用整除得到裁剪数值,选择的为裁剪一半。接着是figure实例,add_subplot()操作添加子图,一个的话里面是“111”,两个的话则分别add_subplot(221),add_subplot(222),add_subplot(223),add_subplot(224)。imshow()方法第一个参数X存储图像,最后用plt.show()显示。

第六个tf.multinomial(),multinomial也就是多项式。这个方法可以从多项式分布中抽取样本,就是根据概率分布的大小,返回对应维度的下标序号。测试代码如下:

import numpy as np
import tensorflow as tfb = tf.constant(np.random.normal(size = (3, 4)))with tf.Session() as sess:print(sess.run(b))print(sess.run(tf.multinomial(b, 5)))

结果为:

[[ 2.04100276 -1.12229608 -0.78679458 -0.16623389][ 0.73953609 -0.06907413  0.38520517 -0.27433991][ 0.0813765  -0.16081293 -2.02023628  0.23459176]]
[[0 0 0 0 2][3 0 2 1 2][0 1 0 3 3]]

b变量原来为三行四列的,经过该操作后成了三行五列的。multinomial()方法第一个参数是一个2-D Tensor,称为logits,其shape为[batch_size, num_classes],所以本例中batch_size就是3,num_classes就是4。第二个参数是num_samples,是一个0-D Tensor,也就是常量,表示从每一行切片中获取的独立样本的个数。这里我用的随机数作为初始变量,其实如果以固定的值来算,其multinomial()结果也会是变化的。

第七个是tf.random_gamma()。该方法根据gamma分布个数,每个分布给出shape参数对应个数数据。

在本部分的学习中,遇到的一些其他不清楚的问题一并记录如下。

1. numpy的eye()方法可以得到一个单位矩阵,如

import numpy as npe = np.eye(3)

得到的结果如下:

[[1. 0. 0.][0. 1. 0.][0. 0. 1.]]

这也就是3行3列的方阵,单位矩阵一定是方阵。不过该方法实际上可以不产生方阵,如将其改为np.eye(3, 4),那么就得到3行4列的如下输出:

[[1. 0. 0. 0.][0. 1. 0. 0.][0. 0. 1. 0.]]

其类型是numpy.ndarray,可以用e.shape属性获取其shape信息。

2. TensorFlow的变量也是可以用shape直接获取其shape属性的,如:

import tensorflow as tfa = tf.get_variable('a', [2, 3], initializer=tf.random_normal_initializer(mean=0, stddev=1))init_op = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init_op)print('a:\n', sess.run(a))print(type(a))print(a.shape)

这里面变量a是2行3列的矩阵,其类型是tensorflow.python.ops.variables.Variable,虽然不是numpy.ndarray,但是用a.shape是没问题的。接着,TensorFlow有tf.shape(x)和x.get_shape()两个方法,和以上有什么不同呢?加上print(tf.shape(a)),得到的是:

Tensor("Shape:0", shape=(2,), dtype=int32)

所以对于tf.shape(x),x可以是tensor,也可以不是,其返回值是一个tensor。shape=(2,)也就是个二维矩阵了,接着 print(sess.run(tf.shape(a)))确定运行后其二维各自大小,得到:

[2 3]

也就是该二维矩阵第一个维度(行)是2,第二个维度(列)是3。

这篇关于TensorFlow random_crop和multinomial等方法学习的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1094154

相关文章

QT移植到RK3568开发板的方法步骤

《QT移植到RK3568开发板的方法步骤》本文主要介绍了QT移植到RK3568开发板的方法步骤,文中通过图文示例介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录前言一、获取SDK1. 安装依赖2. 获取SDK资源包3. SDK工程目录介绍4. 获取补丁包二

Java反转字符串的五种方法总结

《Java反转字符串的五种方法总结》:本文主要介绍五种在Java中反转字符串的方法,包括使用StringBuilder的reverse()方法、字符数组、自定义StringBuilder方法、直接... 目录前言方法一:使用StringBuilder的reverse()方法方法二:使用字符数组方法三:使用自

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

java导出pdf文件的详细实现方法

《java导出pdf文件的详细实现方法》:本文主要介绍java导出pdf文件的详细实现方法,包括制作模板、获取中文字体文件、实现后端服务以及前端发起请求并生成下载链接,需要的朋友可以参考下... 目录使用注意点包含内容1、制作pdf模板2、获取pdf导出中文需要的文件3、实现4、前端发起请求并生成下载链接使

Linux虚拟机不显示IP地址的解决方法(亲测有效)

《Linux虚拟机不显示IP地址的解决方法(亲测有效)》本文主要介绍了通过VMware新装的Linux系统没有IP地址的解决方法,主要步骤包括:关闭虚拟机、打开VM虚拟网络编辑器、还原VMnet8或修... 目录前言步骤0.问题情况1.关闭虚拟机2.China编程打开VM虚拟网络编辑器3.1 方法一:点击还原VM

Android WebView无法加载H5页面的常见问题和解决方法

《AndroidWebView无法加载H5页面的常见问题和解决方法》AndroidWebView是一种视图组件,使得Android应用能够显示网页内容,它基于Chromium,具备现代浏览器的许多功... 目录1. WebView 简介2. 常见问题3. 网络权限设置4. 启用 JavaScript5. D

Java捕获ThreadPoolExecutor内部线程异常的四种方法

《Java捕获ThreadPoolExecutor内部线程异常的四种方法》这篇文章主要为大家详细介绍了Java捕获ThreadPoolExecutor内部线程异常的四种方法,文中的示例代码讲解详细,感... 目录方案 1方案 2方案 3方案 4结论方案 1使用 execute + try-catch 记录

Python中Windows和macOS文件路径格式不一致的解决方法

《Python中Windows和macOS文件路径格式不一致的解决方法》在Python中,Windows和macOS的文件路径字符串格式不一致主要体现在路径分隔符上,这种差异可能导致跨平台代码在处理文... 目录方法 1:使用 os.path 模块方法 2:使用 pathlib 模块(推荐)方法 3:统一使

SpringBoot项目启动错误:找不到或无法加载主类的几种解决方法

《SpringBoot项目启动错误:找不到或无法加载主类的几种解决方法》本文主要介绍了SpringBoot项目启动错误:找不到或无法加载主类的几种解决方法,具有一定的参考价值,感兴趣的可以了解一下... 目录方法1:更改IDE配置方法2:在Eclipse中清理项目方法3:使用Maven命令行在开发Sprin

JAVA SE包装类和泛型详细介绍及说明方法

《JAVASE包装类和泛型详细介绍及说明方法》:本文主要介绍JAVASE包装类和泛型的相关资料,包括基本数据类型与包装类的对应关系,以及装箱和拆箱的概念,并重点讲解了自动装箱和自动拆箱的机制,文... 目录1. 包装类1.1 基本数据类型和对应的包装类1.2 装箱和拆箱1.3 自动装箱和自动拆箱2. 泛型2