本文主要是介绍4-1 CW Word2Vec,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
文章目录
- C&W Loss Function
- C&W 模型结构
- Word2Vec - CBOW
C&W Loss Function
∑ ( w , c ) ∈ D ∑ w ′ ∈ V m a x ( 0 , 1 − s c o r e ( w , c ) + s c o r e ( w ′ , c ) \sum_{(w,c)\in D}\sum_{w'\in V}max(0, 1-score(w,c)+score(w',c) ∑(w,c)∈D∑w′∈Vmax(0,1−score(w,c)+score(w′,c)
想起了机器视觉课上老师讲的损失函数。
对于每个样本,其错误分类的得分减去正确分类的得分,再加一个鲁棒值(自己起的名)1,作为整个数据集的损失。
C&W 模型结构
Word2Vec - CBOW
模型很简单:将上下文向量求和,作softmax,即得到结果。
输入:上下文。
输出:中间词是哪个词。
与NNLM相比:
- 去掉了隐藏层。
- 用输入向量的和代替了向量的拼接。
在代码实现部分,有一个很实用的技巧,将index转化成onehot向量,不需要用OnehotEncoder,可以用torch.eye(vocab_size)[index],得到的行向量即onehot向量。
这篇关于4-1 CW Word2Vec的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!