tensorflow模型在实际上线进行预测的时候,使用CPU工作


最近已经训练好了一版基于DeepLearning的文本分类模型,TextCNN原理。在实际的预测中,如果默认模型会优先选择GPU那么每一次实例调用,都会加载GPU信息,这会造成很大的性能降低。

那么,在使用的过程中我们无关乎使用GPU还是CPU,使用CPU反而是很快的,所以在有GPU的服务器部署模型,代码之前加入os.environ["CUDA_VISIBLE_DEVICES"]=-1,这样事情就好解决了。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM