导读:损失函数对神经网络的训练有显著影响,也有很多学者人一直在探讨并寻找可以和损失函数一样使模型效果更好的函数。后来,Szegedy 等学者提出了标签平滑方法,该方法通过计算数据集中 hard target 的加权平均以及平均分布来计算交叉熵,有效提升了模型的准确率。近日,Hinton 团队等人在新研究论文《When Does Label Smoothing Help?》中,就尝试对标签平滑技术对
问题描述 依据Visualizing Data using t-SNE实现t-SNE算法,并对MNIST或者Olivetti数据集进行可视化训练。 有以下几点要求: 不能使用现成的t-SNE库,例如sklearn等;可以使用支持矩阵、向量操作的库实现,例如numpy;将数据降低至二维,同一类型的数据使用同一种颜色绘制散点图。 符号介绍 x i x_i xi:第 i i i个原始数据;
题目:Modeling Documents with a Deep Boltzmann Machine 作者:HInton 发表于:UAI 2013 主要内容: 这篇文章写用神经网络来对文本(文章)进行建模的。在Replicated Softmax model的基础上,增加了一个隐含层,但是并不增加参数,用来提升模型性能。与标准RSM和LDA模型相比较,作者这个模型性能更好。