參考文章:推斷速度達seq2seq模型的100倍,谷歌開源文本生成新方法LaserTagger
論文地址:https://research.google/pubs/pub48542/
開源地址:http://lasertagger.page.link/code
@inproceedings{48542,
title = {Encode, Tag, Realize: High-Precision Text Editing},
author = {Eric Malmi and Sebastian Krause and Sascha Rothe and Daniil Mirylenka and Aliaksei Severyn},
year = {2019},
URL = {https://arxiv.org/pdf/1909.01187.pdf},
booktitle = {Proc. EMNLP-IJCNLP 2019}
}
解決的問題:
- 生成的輸出不受輸入文本支持
- 需要大量數據才能提高速度
- 模型通常逐詞生成輸出,推斷速度較慢
實驗
模型在 WikiSplit 數據集上的結果,模型執行的任務是將一個長句子改述為兩個連貫的短句。