Yang, B., Mitchell, T., 2017. Leveraging Knowledge Bases in LSTMs for Improving Machine Reading. Association for Computational Linguistics, pp. 1436–1446. 链接:http://www.aclweb.org/anthology/P/P17
《Leveraging Knowledge Bases in LSTMs for Improving Machine Reading》 这篇文章是发表在2017年ACL上的,主要是聚焦于外部知识改善LSTM,运用在实体抽取和事件抽取任务。在ACE2005的数据集上得到了SOTA效果。 首先介绍这篇文章的两个知识库,一个是WordNet一个是NELL。 Word net是人工创造的一个词典,里
语言模型即知识库 Language Models as Knowledge Bases 相关博客 【自然语言处理】【可解释性】NKB:用于预训练Transformers的神经知识银行 【自然语言处理】【可解释性】自注意力归因:解释Transformer内部的信息交互 【深度学习】【积分梯度】深度网络的公理归因(Axiomatic Attribution for Deep Netw