最近已經訓練好了一版基於DeepLearning的文本分類模型,TextCNN原理。在實際的預測中,如果默認模型會優先選擇GPU那么每一次實例調用,都會加載GPU信息,這會造成很大的性能降低。
那么,在使用的過程中我們無關乎使用GPU還是CPU,使用CPU反而是很快的,所以在有GPU的服務器部署模型,代碼之前加入os.environ["CUDA_VISIBLE_DEVICES"]=-1,這樣事情就好解決了。
最近已經訓練好了一版基於DeepLearning的文本分類模型,TextCNN原理。在實際的預測中,如果默認模型會優先選擇GPU那么每一次實例調用,都會加載GPU信息,這會造成很大的性能降低。
那么,在使用的過程中我們無關乎使用GPU還是CPU,使用CPU反而是很快的,所以在有GPU的服務器部署模型,代碼之前加入os.environ["CUDA_VISIBLE_DEVICES"]=-1,這樣事情就好解決了。
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。