tensorflow訓練過程中內存溢出


罪魁禍首是 訓練過程中給模型傳值時的如下語句:
而其中函數seq2embeded()中用到了tensorflow的運算:
這兩句會增加graph節點,使得圖在訓練過程中不斷增大,就會不斷消耗內存。
 
教訓:
訓練過程中,能用numpy處理的運算盡量不用tensorflow中的運算。
如果必須用tensorflow運算,事先在graph中用placehoder( )定以好運算的tensor,訓練過程中用sess.run(..., feed_dict=)傳值。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM