• 简体   /   繁体
基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法-计算机应用研究2024年03期

基于深度编码注意力的XLNet-Transformer汉-马低资源神经机器翻译优化方法

作者:占思琦 徐志展 杨威 谢抢来 字体:      

摘 要:神经机器翻译(NMT)在多个领域应用中已取得显著成效,在大规模语料库上已充分论证其优越性。然而,在语料库资源不足的情形下,仍存在较大的改进空间。由于汉语-马来语(汉-马)平行语料的匮乏,直接导致了汉(试读)...

计算机应用研究

2024年第03期