tensorflow训练过程中内存溢出


罪魁祸首是 训练过程中给模型传值时的如下语句:
而其中函数seq2embeded()中用到了tensorflow的运算:
这两句会增加graph节点,使得图在训练过程中不断增大,就会不断消耗内存。
 
教训:
训练过程中,能用numpy处理的运算尽量不用tensorflow中的运算。
如果必须用tensorflow运算,事先在graph中用placehoder( )定以好运算的tensor,训练过程中用sess.run(..., feed_dict=)传值。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM