softman专题

tf.nn.softman_cross_entropy_with_logits及几种交叉熵计算

https://www.jianshu.com/p/95d0dd92a88a  就看例子就完事了   tf.nn.softmax import tensorflow as tfimport numpy as npsess=tf.Session()#logits代表wx+b的输出,并没有进行softmax(因为softmax后是一个和为1的概率)logits = np.array(