加快Pytorch訓練速度
num_workers
- num_worker=0表示只用主進程讀取數據, num_worker=4/8表明使用額外的4/8子進程讀取數據
- 一般來說,增大num_worker可以增加GPU的利用率,從而加快訓練的速度。
- 但是有時候即使增大num_worker也無法提高GPU利用率,這是因為訓練的瓶頸在IO
多個小文件->單個大文件
- 使用hdf5文件:缺點是需要全部讀入內存
- 使用lmdb文件
pytorch tricks合集
Efficient pytorch
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。