YOLOX multiGPU training


将yolox/core/trainer.py中的self.tblogger.add_scalar 语句放在if self.rank == 0: 中,结束后需要synchronize()
        if self.rank == 0:
            self.tblogger.add_scalar('lr', lr, self.epoch)
            self.tblogger.add_scalar('loss', loss, self.epoch)
        Add :synchronize()
#4个 GPU 训练的命令
#python -m torch.distributed.launch --nproc_per_node=4 tools/train.py -n exps/example/yolox_voc/yolox_voc_s.py -b 32


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM