python并发执行之多进程

2023-01-31 05:01:55 并发 进程 之多

    多进程顾名思义程序启动的时候运行多个进程,每个进程启动一条线程进行程序处理。 没启动一个进程就要单独划分一块内存资源。就像工厂的厂房。为了提高效率每多添加一条生产线就要单独再盖一个厂房。每个厂房相互是独立的。所以启动多进程是很消耗资源的,毕竟厂房盖多了厂区就没地方给其他设施用了。

    多进程的代码实现方法和多线程的函数方式很类似

#!/usr/bin/env python
# -*-coding:utf-8-*-
from multiprocessing import Process
#引用的模块变成了多进程模块
def foo(i):
    print 'say hi',i
for i in range(10):
    """
    同时启动10个进程,把Process()实例化给p
    调用p.start()方法启动每个进程
    """
    p = Process(target=foo,args=(i,))
    p.start()

上面提到了多进程之间数据是相互独立的,我们来写一段代码测试一下

#!/usr/bin/env Python
#coding:utf-8
 
from multiprocessing import Process
 
li = []
 
def foo(i):
#向列表中加入当前的进程序列号
    li.append(i)
    print 'say hi',li
  
for i in range(10):
    p = Process(target=foo,args=(i,))
    p.start()
     
print 'ending',li

上面的代码运行结果是

[wgw@mail ~]$ python test.py 
say hi [0]
say hi [1]
say hi [2]
say hi [3]
say hi [4]
say hi [5]
say hi [6]
say hi [7]
say hi [8]
ending []
say hi [9]

    注意看ending [] 这一列。通过代码我们得知每个一个派生的子进程都会调用foo()函数并将自己的进程运行序列号添加到li表中。但是当最后我们要查看li[]表里存储的内容,我们并没有看到自己希望看到[0,1,2...9]的内容这是为什么呢?这其实就是进程的内存相互独立导致的。我们创建了进程0,那么进程就复制了一个空列表li[],并把0追加到表里。那么对于进程0来说li列表的内容就是li[0]。但是进程1在启动之后也和进程0一样复制了一个空列表li[],对于进程1来说运行结束时候自己的列表li的内容就是li[1]。以此类推,启动了10个子进程就复制了10个li[]空列表。每个进程中的列表都是相互独立的,而程序的最后我们打印的是最主进程的那个li[]列表,这个列表没有被操作过所以还是空的。通过这里我们也可以得知,多进程的时候每个进程都要对资源进行复制。所以进程启动多了会异常的消耗资源。

    如果我们要让进程间数据同步,就需要借助multiprocessing模块中的Manager方法来管理特殊的列表或者字典。通过这种特殊方法来实现进程间数据的同步。看代码

#!/usr/bin/env python
# -*-coding:utf-8-*-
from multiprocessing import Process,Manager
def foo(i,Manger_list):
    """
    函数要引用别Manger方法管理的特殊列表,这列表的
    操作和标准列表是完全一致的。
    """
    Manger_list.append(i)
    print 'say hi',li
if __name__=='__main__':
    #定义一个空列表储存生成的多进程句柄
    p_list=[]
    #实例化Manager方法
    manager=Manager()
    #声明li是被manger管理的特殊列表
    li = manager.list()
    for i in range(10):
        #将进程的启动序列号和特殊列表赋值给foo()函数
        p = Process(target=foo,args=(i,li))
        p_list.append(p)
    for p in p_list:
        #执行多进程句柄,交给CPU调度
        p.start()
    for p in p_list:
        #在最后一个子进程结束前,不能停止主进程
        p.join()
    #主进程结束后打印主进程中li列表的内容
    print 'ending',li

这段代码的运行结果是

say hi [0]
say hi [0, 7]
say hi [0, 7, 4]
say hi [0, 7, 4, 5]
say hi [0, 7, 4, 5, 6]
say hi [0, 7, 4, 5, 6, 2]
say hi [0, 7, 4, 5, 6, 2, 9]
say hi [0, 7, 4, 5, 6, 2, 9, 3]
say hi [0, 7, 4, 5, 6, 2, 9, 3, 8]
say hi [0, 7, 4, 5, 6, 2, 9, 3, 8, 1]
ending [0, 7, 4, 5, 6, 2, 9, 3, 8, 1]

从上面的结果就可以看出来,虽然进程执行结束的顺序和启动时候的顺序不一样了。但是每个子进程的执行结果都被追加到了同一个li列表中。并且最后主进程的li列表内容和子进程的的内容一致。说明通过multiprocessing.Manager()方法可以让多进程像多线程一样实现内存数据的共享。

相关文章