多方搜索,才知出現這個問題是因為內存使用過多導致。我剛開始設置batch_size為5 迭代了137次出現了以上錯誤信息。按照網上說法將batch_size改為2迭代了3百多次停止。后來干脆設置為1,才沒能出現以上錯誤信息。很是奇怪,覺得batch_size為1或者為2差別不大,應該不是根本原因,而是誤打誤撞解決了
再行搜索,得知原因是:loss或者網絡的輸出不斷積累導致計算圖不斷擴張。解決方案:在訓練的循環過程中,需要用到loss,則用loss.data[0]
多方搜索,才知出現這個問題是因為內存使用過多導致。我剛開始設置batch_size為5 迭代了137次出現了以上錯誤信息。按照網上說法將batch_size改為2迭代了3百多次停止。后來干脆設置為1,才沒能出現以上錯誤信息。很是奇怪,覺得batch_size為1或者為2差別不大,應該不是根本原因,而是誤打誤撞解決了
再行搜索,得知原因是:loss或者網絡的輸出不斷積累導致計算圖不斷擴張。解決方案:在訓練的循環過程中,需要用到loss,則用loss.data[0]
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。