加快Pytorch训练速度
num_workers
- num_worker=0表示只用主进程读取数据, num_worker=4/8表明使用额外的4/8子进程读取数据
- 一般来说,增大num_worker可以增加GPU的利用率,从而加快训练的速度。
- 但是有时候即使增大num_worker也无法提高GPU利用率,这是因为训练的瓶颈在IO
多个小文件->单个大文件
- 使用hdf5文件:缺点是需要全部读入内存
- 使用lmdb文件
pytorch tricks合集
Efficient pytorch
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。