很多時候,我們需要在多個進程中同時寫一個文件,如果不加鎖機制,就會導致寫文件錯亂
這個時候,我們可以使用multiprocessing.Lock()
我一開始是這樣使用的:
import multiprocessinglock = multiprocessing.Lock()class MatchProcess(multiprocessing.Process):  def __init__(self, threadId, mfile, lock):    multiprocessing.Process.__init__(self)    self.threadId = threadId    self.mfile = mfile    self.lock = lock  def run(self):    while True:       self.lock.acquire()       try:         self.mfile.write('111111111111111111' + '/n')       finally:         self.lock.release() if __name__ == '__main__':  mf = open('test.lst', 'w')  for i in range(15):    p = MatchProcess(i, mf, lock)    p.start() 發現這種方式,鎖并沒有起作用, 文件內容依然出現了錯亂(注意,我這里寫的1111是示例,我的代碼實際寫的其他內容)
所以這種方式,雖然lock通過參數傳到了每個進程中,但是我們知道進程之間是不共享內存的,所以我理解應該是每個進程獲得的鎖其實是不同的, 所以無法對寫文件起到加鎖的效果
進程池是否可行呢,于是做了如下嘗試
def run(line):  lock.acquire()    try:      mfile.write('111111111111111111' + '/n')  finally:    lock.release()sf = open('test.lst', 'r')data_lst = list()for line in sf:   line = line.strip()  data_lst.append(line)pool = Pool(15)pool.map_async(run, data_lst) #map_async方法會將data_lst這個可迭代的對象里面的每個元素依次傳入run方法來執行pool.close()pool.join()print 'over'但是注意:
pool.close()pool.join()
這兩行代碼必不可少,否則,主進程執行完畢后會退出,導致整個進程結束
所以在整個進程全部執行完畢后,才會打印出over
但是這種方式,發現,鎖仍然不起作用
最后采用了如下方式:
def run(line):  mfile = open('test2.lst', 'a')  lock.acquire()  try:    mfile.write('111111111111111111' + '/n')  finally:    lock.release() sf = open('test.lst', 'r')data_lst = list()for line in sf:   line = line.strip()  data_lst.append(line) pList = []for line in line_lst:  p = multiprocessing.Process(target=run, args=(line, lock))  p.start()  pList.append(p) for p in pList:  p.join()是親測發現,這種方式,鎖的確起作用了,在每次寫入數據量很大的情況下,速度很慢
但是一個比較惡心的問題是,我一開始試圖將文件打開后通過Process對象的args參數傳入到run方法中,但是發現數據無法寫入到文件中,見鬼,這個問題我還沒搞明白
無耐,只能采取上面的笨方法,在每次寫入的時候打開然后寫入,這肯定不是明智的做法,如果有更好的辦法,請留言我
也就是說,文件打開后傳入,是無效的,那么可以將文件名傳入,然后在run方法中每次寫的時候先打開,寫入后關閉應該也是可行的。
新聞熱點
疑難解答