首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
luong专题
NLP-2015:Luong NMT模型【Attention类型:Global Attention、Local Attention(实践中很少用)】
《原始论文:Effective Approaches to Attention-based Neural Machine Translation》 在实际应用中,全局注意力机制比局部注意力机制有着更广泛的应用,因为局部注意力机制需要预测一个位置向量 p t p_t pt,而这个位置向量的预测并不是非常准确的,会影响对齐向量的准确率。同时,在处理不是很长的源端句子时,相比于全局注意力并没有减少
阅读更多...