tf axis = 1

2024-06-07 16:48
文章标签 tf axis

本文主要是介绍tf axis = 1,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

总是搞不清楚在axis上加减的结果,例子如下:

import tensorflow as tf
from scipy.spatial.distance import pdist, squareformclass EmbeddingTable(object):def __init__(self, ini):self.embedding_table = tf.get_variable(name="embedding",initializer=ini, trainable=True)def get_shape(self):return self.embedding_table.get_shape()def embed_words(self, words):""":param words:  padding 之后的id:return:"""emb = tf.nn.embedding_lookup(self.embedding_table, words)return embini = [[1, 0, 0], [0, 1, 1], [0, 0, 1]]
embed_table = EmbeddingTable(ini)word = tf.placeholder(dtype=tf.int32, shape=(None, None))
mm = tf.placeholder(dtype=tf.int32, shape=(None, None))
x_op = embed_table.embed_words(word)xx = [[1, 2],[0, 1]]mask = [[1, 0],[0, 1]]xx_result = tf.reduce_sum(xx, axis=1)
multi_op = x_op*mm[:, :, None]
n = tf.reduce_sum(multi_op, axis=0)ini_op = tf.global_variables_initializer()
with tf.Session() as sess:sess.run(ini_op)# m = sess.run(x_op, feed_dict={word:xx})# x_, bb, x_m = sess.run([x_op,multi_op ,n], feed_dict={mm: mask, word: xx})x_ = sess.run(xx_result, feed_dict={mm: mask, word: xx})  #[3 1]#########
xx_result = tf.reduce_sum(xx, axis=0)  
x_ = sess.run(xx_result, feed_dict={mm: mask, word: xx})     #[1, 3]
little detail
  1. 求矩阵的转置的时候,没有tenor.T 这种写法的;
    tf.transpose(tensor)
  2. Tensor 之间的运算规则
    相同大小 Tensor 之间的任何算术运算都会将运算应用到元素级
    不同大小 Tensor(要求dimension 0 必须相同) 之间的运算叫做广播(broadcasting)
    Tensor 与 Scalar(0维 tensor) 间的算术运算会将那个标量值传播到各个元素
    Note: TensorFLow 在进行数学运算时,一定要求各个 Tensor 数据类型一致

tensor 之间的数学运算可以参考一下几点:
https://blog.csdn.net/zywvvd/article/details/78593618

sentence embedding:
A Simple Language Model based Evaluator for Sentence Compression.
Exploring Semantic Properties of Sentence Embeddings
Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generation. Tiancheng Zhao, Kyusong Lee and Maxine Eskenazi.
Sentence-State LSTM for Text Representation. Yue Zhang, Qi Liu and Linfeng Song.
Subword-level Word Vector Representations for Korean. Sungjoon Park, Jeongmin Byun, Sion Baek, Yongseok Cho and Alice Oh.
hyperdoc2vec: Distributed Representations of Hypertext Documents. Jialong Han, Yan Song, Wayne Xin Zhao, Shuming Shi and Haisong Zhang.

tensorflow API

这篇关于tf axis = 1的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1039739

相关文章

Matplotlib通过axis()配置坐标轴数据详解

坐标轴范围设置 axis()可以直接传入列表[xmin,xmax,ymin,ymax]进行范围设置, 分别可以使用plt.axis()或者画布对象.axis()进行配置 import numpy as npimport matplotlib.pyplot as pltx = np.linspace(0, 20, 100)y = x*2plt.plot(x, y, 'r')plt.ax

【深度学习 走进tensorflow2.0】TensorFlow 2.0 常用模块tf.config

无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。点这里可以跳转到教程。人工智能教程 本篇文章将会教大家如何 合理分配显卡资源,设置显存使用策略。主要使用tf.config模块进行设置。下面我们一起了解下具体用法和例子。 一、指定当前程序使用的 GPU 例如,在一台具有 4 块 GPU 和一个 C

Tensorflow 中train和test的batchsize不同时, 如何设置: tf.nn.conv2d_transpose

大家可能都知道, 在tensorflow中, 如果想实现测试时的batchsize大小随意设置, 那么在训练时, 输入的placeholder的shape应该设置为[None, H, W, C]. 具体代码如下所示: # Placeholders for input data and the targetsx_input = tf.placeholder(dtype=tf.float32, s

NLP-词向量-发展:词袋模型【onehot、tf-idf】 -> 主题模型【LSA、LDA】 -> 词向量静态表征【Word2vec、GloVe、FastText】 -> 词向量动态表征【Bert】

NLP-词向量-发展: 词袋模型【onehot、tf-idf】主题模型【LSA、LDA】基于词向量的静态表征【Word2vec、GloVe、FastText】基于词向量的动态表征【Bert】 一、词袋模型(Bag-Of-Words) 1、One-Hot 词向量的维数为整个词汇表的长度,对于每个词,将其对应词汇表中的位置置为1,其余维度都置为0。 缺点是: 维度非常高,编码过于稀疏,易出

NumPy(五):数组统计【平均值:mean()、最大值:max()、最小值:min()、标准差:std()、方差:var()、中位数:median()】【axis=0:按列运算;axis=0:按列】

统计运算 np.max()np.min()np.median()np.mean()np.std()np.var()np.argmax(axis=) — 最大元素对应的下标np.argmin(axis=) — 最小元素对应的下标 NumPy提供了一个N维数组类型ndarray,它描述了 相同类型 的“items”的集合。(NumPy provides an N-dimensional array

NumPy(六):数组堆叠:【vstack:垂直(按列顺序)堆叠数组】【hstack:水平(按列顺序)堆叠数组】【stack:axis=0/1/2】

首先生成一些数, import numpy as npa = np.arange(1, 7).reshape((2, 3))b = np.arange(7, 13).reshape((2, 3))c = np.arange(13, 19).reshape((2, 3))print('a = \n', a)print('b = \n', b)print('c = \n', c) 即下

Pandas-高级处理(二):连接与修补【concat(参数:axis、join、keys)、combine_first(根据index,df1的空值被df2替代)】

一、连接(concat):沿轴执行连接操作 pd.concat([data1, data2], axis=1):按照行或列进行连接操作: axis=0为列索引;axis=1为行索引; 比如我们将刚才处理好的one-hot编码与原数据连接 1、参数:axis import pandas as pd# 连接:concats1 = pd.Series([1, 2, 3])s2 = pd.Se

亦菲喊你来学机器学习(18) --TF-IDF方法

文章目录 TF-IDF词频TF逆文档频率IDF计算TF-IDF值 应用实验使用TF-IDF1. 收集数据2. 数据预处理3. 构建TF-IDF模型对象4. 转化稀疏矩阵5. 排序取值完整代码展示 jieba分词总结 TF-IDF TF-IDF(Term Frequency-Inverse Document Frequency,词频-逆文档频率)是一种用于信息检索与文本挖掘的常用加

NLP03:使用TF-IDF和LogisticRegression进行文本分类

公众号:数据挖掘与机器学习笔记 1.TF-IDF算法步骤 1.1 计算词频 考虑到文章有长短之分,为了便于不同文章的比较,进行"词频"标准化。 1.2 计算逆文档频率 需要一个语料库(corpus),用来模拟语言的使用环境。 如果一个词越常见,那么分母就越大,逆文档频率就越小越接近0。分母之所以要加1,是为了避免分母为0(即所有文档都不包含该词)。log表示对得到的值取对数

文本数据分析-(TF-IDF)(2)

文章目录 一、TF-IDF与jieba库介绍1.TF-IDF概述2.jieba库概述 二、TF-IDF与jieba库的结合1.结合2.提取步骤 三,代码实现1.导入必要的库读取文件:3.将文件路径和内容存储到DataFrame4.加载自定义词典和停用词5.分词并去除停用词 TF-IDF(Term Frequency-Inverse Document Frequency)与jieba