本文主要是介绍UNDERSTANDING NEGATIVE SAMPLING IN KNOWLEDGE GRAPH EMBEDDING,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
伯努利采样的改进。Zhang等[45]扩展伯努利抽样,考虑关系替换遵循概率α=r / ((r+e)),这里r为关系个数,e为实体个数。剩余的1-α按伯努利分布分为头部实体替换和尾部实体替换。这种变化增强了KGE模型的关联环节预测能力。
4.1.3. Probabilistic Sampling
Kanojia等人[46]提出了概率负抽样来解决知识库中普遍存在的数据偏斜问题。对于数据较少的关系,即使经过数百次的训练,Uniform或Bernoulli随机抽样也无法在语义上可能的选项中预测黄金三元组的缺失部分。概率负抽样通过引入一个被称为训练偏差的调谐参数β来加速生成损坏三元组的过程,该参数决定了生成的负样本与早期列出的可能实例互补的概率。Kanojia等人对TransR在链路预测中的概率负抽样(probabilistic negative sampling, PNS)进行了评估,得出TransR-PNS在基准数据集WN18和FB15K[5]上的Mean Rank比使用伯努利抽样的TransR分别提高了190和47个位置。
Enhancing Knowledge Graph Embedding with Probabilistic Negative Sampling
这篇关于UNDERSTANDING NEGATIVE SAMPLING IN KNOWLEDGE GRAPH EMBEDDING的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!