
罪魁禍首是
訓練過程中給模型傳值時的如下語句:

而其中函數seq2embeded()中用到了tensorflow的運算:

這兩句會增加graph節點,使得圖在訓練過程中不斷增大,就會不斷消耗內存。
教訓:
訓練過程中,能用numpy處理的運算盡量不用tensorflow中的運算。
如果必須用tensorflow運算,事先在graph中用placehoder( )定以好運算的tensor,訓練過程中用sess.run(..., feed_dict=)傳值。