在多处理中共享列表列表

问题描述

我想提高代码的效率。我的代码的一个重要部分是将元素追加到列表列表中。基本上,我想做一些事情,

import multiprocessing
import time
def update_val(L, i):  
    L.append(i**2)
    return L

if __name__ == "__main__":
    N = 1000000
    x_reg = [list(range(10)) for i in range(N)]
    y_reg = [list(range(10)) for i in range(N)]
    z_reg = [list(range(10)) for i in range(N)]   
    "Regular Call"
    start = time.time()
    [x_reg[i].append(i**2)  for i in range(N)]
    stat_reg =time.time() - start

    "Multiprocessing"
    num_cores = multiprocessing.cpu_count() # equals 4 in my case
    pool = multiprocessing.Pool(num_cores)
    start = time.time()
    y_reg = pool.starmap(update_val,[(y_reg[i],i) for i in range(N)])
    pool.close()
    pool.join()
    stat_val =time.time() - start


    print("Regular: %g "%(stat_reg))
    print("Mult.: %g "%(stat_val))

输出为:

Regular: 0.387984 
Mult.: 2.54244 

我认为原因与多处理的工作方式有关;它需要复制原始列表、做人员并返回它。在我的例子中,这应该是多处理非常慢的主要原因。 我的问题是: 1-在进程之间共享z_reg时,我应该如何执行与z_reg相同的功能? 2-它是否提高了性能。 3-还有其他想法如何将某些内容附加到z_reg中的每个子列表吗?


解决方案

我建议您使用multiprocessing.Queue。将列表保存在主进程中,并通过队列发送来自所有子进程的数据。

相关文章