[tf 2.0] padded_batch_use

2024-04-21 12:18
文章标签 use tf batch 2.0 padded

本文主要是介绍[tf 2.0] padded_batch_use,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考:

  1. tf2.0中输出 不用sess.run
    https://stackoom.com/question/3nd25/%E5%BB%BA%E8%AE%AE%E5%9C%A8tensorflow-%E4%B8%AD%E8%B0%83%E8%AF%95-tf-data-Dataset-%E6%93%8D%E4%BD%9C
  2. padded_batch用法
    https://blog.csdn.net/z2539329562/article/details/89791783
import tensorflow as tf
x = [[1, 0, 0],[2, 3, 0],[4, 5, 6],[7, 8, 0],[9, 0, 0],[0, 1, 0]]padded_shapes=(tf.TensorShape([None]))
dataset = tf.data.Dataset.from_tensor_slices(x)
def rd(dataset):# 如何输出成[1 0 0]具体数值的形式dataset_iter = dataset.__iter__()
#     for i in range(len(x)):while(True):try:print(dataset_iter.next())except:return 
# 切片之后的 dataset 
rd(dataset)
dataset = dataset.padded_batch(2, padded_shapes=padded_shapes)
# batch_size=2 后的dataset
rd(dataset)
#output
tf.Tensor(
[[1 0 0][2 3 0]], shape=(2, 3), dtype=int32)
tf.Tensor(
[[4 5 6][7 8 0]], shape=(2, 3), dtype=int32)
tf.Tensor(
[[9 0 0][0 1 0]], shape=(2, 3), dtype=int32)
dataset = tf.data.Dataset.range(100)
#
# rd(dataset)
# dataset = dataset.map(lambda x: tf.fill([tf.cast(x, tf.int32)], x)
# dataset = dataset.padded_batch(4, padded_shapes=[None])
dataset = dataset.map(lambda x: tf.fill([tf.cast(x, tf.int32)], x))
dataset<MapDataset shapes: (None,), types: tf.int64>
dataset = dataset.padded_batch(4, padded_shapes=[None])
dataset
<PaddedBatchDataset shapes: (None, None), types: tf.int64>
rd(dataset)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这篇关于[tf 2.0] padded_batch_use的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/923058

相关文章

OpenGL ES 2.0渲染管线

http://codingnow.cn/opengles/1504.html Opengl es 2.0实现了可编程的图形管线,比起1.x的固定管线要复杂和灵活很多,由两部分规范组成:Opengl es 2.0 API规范和Opengl es着色语言规范。下图是Opengl es 2.0渲染管线,阴影部分是opengl es 2.0的可编程阶段。   1. 顶点着色器(Vert

QT项目实战之音乐播放器2.0版本

该版本相较于1.0版本最主要的不同在于连接数据库实现类似于歌曲收藏和取消收藏的功能。 详细情况看我的这篇文章http://t.csdnimg.cn/WS5s8。 效果展示 VSMyMusicShow2.0 define.h UseMySQL.h   musicInfo.h   VSMyMusicPlayer.h

MemSQL Start[c]UP 2.0 - Round 1A(构造)

题目链接:http://codeforces.com/problemset/problem/452/A 解题思路: 打个表暴力查找匹配。 完整代码: #include <algorithm>#include <iostream>#include <cstring>#include <complex>#include <cstdio>#include <strin

Tomcat启动报错:transport error 202: bind failed: Address already in use

Tomcat启动报错:transport error 202: bind failed: Address already in use 了,上网查找了下面这篇文章。也是一种解决办法。 下文来自:http://blog.csdn.net/sam031503/article/details/7037033 tomcat 启动日志报出以下错误:  ERROR: transport err

Unity Adressables 使用说明(五)在运行时使用 Addressables(Use Addressables at Runtime)

一旦你将 Addressable assets 组织到 groups 并构建到 AssetBundles 中,就需要在运行时加载、实例化和释放它们。 Addressables 使用引用计数系统来确保 assets 只在需要时保留在内存中。 Addressables 初始化 Addressables 系统在运行时第一次加载 Addressable 或进行其他 Addressable API 调

【深度学习 走进tensorflow2.0】TensorFlow 2.0 常用模块tf.config

无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。点这里可以跳转到教程。人工智能教程 本篇文章将会教大家如何 合理分配显卡资源,设置显存使用策略。主要使用tf.config模块进行设置。下面我们一起了解下具体用法和例子。 一、指定当前程序使用的 GPU 例如,在一台具有 4 块 GPU 和一个 C

简单的spring batch学习

前言 公司批量任务是数据库执行的,想修改成java执行批量任务,所以简单了解了下springbatch批量任务框架,此处是其学习笔记,具体学习视频地址为bilibili springbatch,以下为其学习笔记内容以及源码信息 一、课程目标 课程目标 系统了解Spring Batch批处理 项目中能熟练使用Spring Batch批处理 课程内容 前置知识 Java基础

torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms总结学习记录

经常使用PyTorch框架的应该对于torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms这两个语句并不陌生,在以往开发项目的时候可能专门化花时间去了解过,也可能只是浅尝辄止简单有关注过,正好今天再次遇到了就想着总结梳理一下。 torch.backends.cudnn.benchmark 是 PyTorch 中的一个设置

等保2.0升级:企业如何快速适应新标准

随着《网络安全法》的实施以及网络空间安全形势的不断升级,我国的信息安全等级保护制度也在持续完善。等保2.0的出台,标志着我国信息安全等级保护体系进入了一个新的阶段。面对等保2.0的升级,企业应如何快速适应新标准,确保自身信息安全体系与国家政策的同步升级?本文将从理解新标准、评估现状、制定计划、执行与优化四个方面,探讨企业应对等保2.0升级的有效策略。 一、深入理解等保2.0新标准 等保2.0相

编译时出现错误 -- clang: error: linker command failed with exit code 1 (use -v to see invocation)

出现这个错误的原因有多种,常见的是因为某些文件的缺失或者是文件的重复导致的。 这类错误查看的关键在于其上一行的文字。 对于文件缺少而导致错误的情况: 例如上图中的示例,其上一行文字为 ld:library not found for -lrxl,可以看出是缺失了某一文件而导致的错误,这行文字中的最后“ -lrxl ”:-l 代表着其前缀是“lib”,连着后面的 rxl,其名称为 libr