文本生成論文集
論文0
題目《Generating Text with Recurrent Neural Networks》
解決問題:(1)句子壓縮(2)文本生成
要點:
(1)提出了新的rnn結構(MRNN)


本文表示能夠提升文本生成能力,但名氣比較小
論文1
題目《Generating Sequences With Recurrent Neural Networks
》
代碼:https://sourceforge.net/projects/rnnl/
文本自動生成任務
網絡結構:
特點:
(1)這個網絡在輸入節點和所有隱層節點、所有隱層節點和輸出節點之間都有連接,這樣做的好處是更加方便的訓練deep network。
(2)隱層單元該網絡采用了LSTM單元。
(3)采用char-level language modeling,縮小解空間
(4)在模型訓練時,輸入數據切成100個bype為單元的sequence,但是模型的隱狀態每100個sequence才復位,也就是實際的訓練序列長度為10000個byte,也就是訓練了整個文本。
論文2
題目《Globally Coherent Text Generation with Neural Checklist Models》
特點:菜譜生成的例子,預先提供關鍵詞
論文3
題目《Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems》
論文4
題目《SENTENCE ORDERING USING RECURRENT NEURAL NETWORKS》
要點:句子通順度排序
論文5
題目《Backward and Forward Language Modeling for Constrained Sentence Generation》
要點:詞匯限定條件下的文本生成
論文6
題目《Generating Topical Poetry》
要點:特定主題下的詩歌生成
論文7
題目《A Planning based Framework for Essay Generation》
要點:特定主題下的文章生成,比較貼近需求,但是沒有用rnn的方法,通順度存疑
解決問題的框架:
(1)topic understanding
(2)sentence extraction
(3)sentence reordering
論文8
題目《Controllable Text Generation》
要點:難度大
論文9
題目:《Survey of the State of the Art in Natural Language Generation: Core tasks, applications and evaluation》
要點:綜述
論文10
題目《Generating Text from Structured Data with Application to the Biography Domain》
要點:從concept到文章
數據集:https://github.com/rlebret/wikipedia-biography-dataset
解決問題的框架:
(1)table data轉換成embedding
(2)只生成一句話百科,長度比較短
論文11
題目《Context-aware Natural Language Generation with Recurrent Neural Networks》
由機器生成評論
網絡結構:
(1)Encoder采用全連接方式編碼Context信息


(2)Decoder采用RNN
采用lstm為cell,為了解決長句子詞越到后面越難以控制的問題,引入gate機制,控制每個詞與hidden vector相關
論文12
題目《Generating sentences from a continuous space》
refs:
(1) http://machinelearningmastery.com/text-generation-lstm-recurrent-neural-networks-python-keras/
(2) 亞馬遜評論數據集, http://jmcauley.ucsd.edu/data/amazon/links.html