tensorflow模型在實際上線進行預測的時候,使用CPU工作


最近已經訓練好了一版基於DeepLearning的文本分類模型,TextCNN原理。在實際的預測中,如果默認模型會優先選擇GPU那么每一次實例調用,都會加載GPU信息,這會造成很大的性能降低。

那么,在使用的過程中我們無關乎使用GPU還是CPU,使用CPU反而是很快的,所以在有GPU的服務器部署模型,代碼之前加入os.environ["CUDA_VISIBLE_DEVICES"]=-1,這樣事情就好解決了。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM