Question
一直很迷,在給Dataloader
設置worker
數量(num_worker
)時,到底設置多少合適?這個worker
到底怎么工作的?如果將num_worker
設為0(也是默認值),就沒有worker
了嗎?
worker
的使用場景:
from torch.utils.data import DataLoader train_loader = DataLoader(dataset=train_data, batch_size=train_bs, shuffle=True, num_worker=4) valid_loader = DataLoader(dataset=valid_data, batch_size=valid_bs, num_worker=4)
Answer
-
每每輪到
dataloader
加載數據時:for epoch in range(start_epoch, end_epoch): for i, data in enumerate(trainloader):
-
dataloader
一次性創建num_worker
個worker
,(也可以說dataloader
一次性創建num_worker
個工作進程,worker
也是普通的工作進程),並用batch_sampler
將指定batch
分配給指定worker
,worker
將它負責的batch
加載進RAM
。然后,dataloader
從RAM
中找本輪迭代要用的batch
,如果找到了,就使用。如果沒找到,就要num_worker
個worker
繼續加載batch
到內存,直到dataloader
在RAM
中找到目標batch
。一般情況下都是能找到的,因為batch_sampler
指定batch
時當然優先指定本輪要用的batch
。 -
num_worker
設置得大,好處是尋batch
速度快,因為下一輪迭代的batch
很可能在上一輪/上上一輪…迭代時已經加載好了。壞處是內存開銷大,也加重了CPU
負擔(worker
加載數據到RAM
的進程是CPU
復制的嘛)。num_workers
的經驗設置值是自己電腦/服務器的CPU
核心數,如果CPU
很強、RAM
也很充足,就可以設置得更大些。 -
如果
num_worker
設為0,意味着每一輪迭代時,dataloader
不再有自主加載數據到RAM
這一步驟(因為沒有worker
了),而是在RAM
中找batch
,找不到時再加載相應的batch
。缺點當然是速度更慢。
轉自 https://blog.csdn.net/weixin_43593330/article/details/107483671
同時可參考 https://zhuanlan.zhihu.com/p/69250939