(原)torch7中指定可见的GPU


转载请注明出处:

http://www.cnblogs.com/darkknightzh/p/7418694.html

参考网址:

https://gitter.im/torch/torch7/archives/2015/05/21

https://gitter.im/torch/torch7/archives/2015/09/04

在使用tensorflow时,可以指定哪些GPU可见,这样tensorflow在分配内存时,不会把每个gpu都分配内存。

以前使用torch7时,一直是直接th script.lua。但是电脑上有多个gpu时,每个gpu均会占用186M的显存。虽然占用的不多,但是总感觉不爽。

实际上,也可以设置运行torch的lua程序时,哪些gpu可见(默认全部可见)。如下:

CUDA_VISIBLE_DEVICES=2,3 th script.lua

上面GPU编号从0开始,相当于使用电脑中的第三个和第四个GPU(lua默认从1开始)。

程序中在使用cutorch时,GPU由于从1开始,以前使用3,4这两个,加上上面那句话后,程序内部改成1,2这两个GPU即可(加上那句话后,可见的GPU就是1,2了)。

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM