很多時候,我們需要在多個進程中同時寫一個文件,如果不加鎖機制,就會導致寫文件錯亂
這個時候,我們可以使用multiprocessing.Lock()
我一開始是這樣使用的:
import multiprocessing
lock = multiprocessing.Lock()
class MatchProcess(multiprocessing.Process):
def __init__(self, threadId, mfile, lock):
multiprocessing.Process.__init__(self)
self.threadId = threadId
self.mfile = mfile
self.lock = lock
def run(self):
while True:
self.lock.acquire()
try:
self.mfile.write('111111111111111111' + '\n')
finally:
self.lock.release()
if __name__ == '__main__':
mf = open('test.lst', 'w')
for i in range(15):
p = MatchProcess(i, mf, lock)
p.start()
發現這種方式,鎖並沒有起作用, 文件內容依然出現了錯亂(注意,我這里寫的1111是示例,我的代碼實際寫的其他內容)
所以這種方式,雖然lock通過參數傳到了每個進程中,但是我們知道進程之間是不共享內存的,所以我理解應該是每個進程獲得的鎖其實是不同的, 所以無法對寫文件起到加鎖的效果
進程池是否可行呢,於是做了如下嘗試
def run(line):
lock.acquire()
try:
mfile.write('111111111111111111' + '\n')
finally:
lock.release()
sf = open('test.lst', 'r')
data_lst = list()
for line in sf:
line = line.strip()
data_lst.append(line)
pool = Pool(15)
pool.map_async(run, data_lst) #map_async方法會將data_lst這個可迭代的對象里面的每個元素依次傳入run方法來執行
pool.close()
pool.join()
print 'over'
但是注意:
pool.close()
pool.join()
這兩行代碼必不可少,否則,主進程執行完畢后會退出,導致整個進程結束
所以在整個進程全部執行完畢后,才會打印出over
但是這種方式,發現,鎖仍然不起作用
最后采用了如下方式:
def run(line):
mfile = open('test2.lst', 'a')
lock.acquire()
try:
mfile.write('111111111111111111' + '\n')
finally:
lock.release()
sf = open('test.lst', 'r')
data_lst = list()
for line in sf:
line = line.strip()
data_lst.append(line)
pList = []
for line in line_lst:
p = multiprocessing.Process(target=run, args=(line, lock))
p.start()
pList.append(p)
for p in pList:
p.join()
是親測發現,這種方式,鎖的確起作用了,在每次寫入數據量很大的情況下,速度很慢
但是一個比較惡心的問題是,我一開始試圖將文件打開后通過Process對象的args參數傳入到run方法中,但是發現數據無法寫入到文件中,見鬼,這個問題我還沒搞明白
無耐,只能采取上面的笨方法,在每次寫入的時候打開然后寫入,這肯定不是明智的做法,如果有更好的辦法,請留言我
也就是說,文件打開后傳入,是無效的,那么可以將文件名傳入,然后在run方法中每次寫的時候先打開,寫入后關閉應該也是可行的。
但是為什么我文章采用的第一種方式,也是文件打開后傳入,卻是可行的
---------------------
作者:田野上的希望
來源:CSDN
原文:https://blog.csdn.net/u011734144/article/details/78743240
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!