YOLOX multiGPU training


將yolox/core/trainer.py中的self.tblogger.add_scalar 語句放在if self.rank == 0: 中,結束后需要synchronize()
        if self.rank == 0:
            self.tblogger.add_scalar('lr', lr, self.epoch)
            self.tblogger.add_scalar('loss', loss, self.epoch)
        Add :synchronize()
#4個 GPU 訓練的命令
#python -m torch.distributed.launch --nproc_per_node=4 tools/train.py -n exps/example/yolox_voc/yolox_voc_s.py -b 32


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM