指定GPU训练模型


公司或者实验室当大家都共用一台服务器时,训练模型的时候如果不指定GPU,往往会冲突。

我们可以先用

nvidia-smi

查看有多少块GPU,

然后分两种方式指定GPU运行。

1、直接在终端运行时加入相关语句实现指定GPU的使用

CUDA_VISIBLE_DEVICES=0 python test.py
# 表示运行test.py文件时,使用编号为0的GPU卡
CUDA_VISIBLE_DEVICES=0,2 python test.py
# 表示运行test.py文件时,使用编号为0和2的GPU卡

2、在Python程序中添加

import os
# 使用第一张与第三张GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM