进程和线程


进程和线程

多进程


linux系统提供了一个fork()创造多进程的方式i,但是并不支持windows

multiprocessing

在windows上可以使用multiprocessing模块来编写多进程的程序

from multiprocessing import Process
import os

# 子进程要执行的代码
def run_proc(name):
    print('Run child process %s (%s)...' % (name, os.getpid()))

if __name__=='__main__':
    print('Parent process %s.' % os.getpid())
    p = Process(target=run_proc, args=('test',))
    print('Child process will start.')
    p.start()
    p.join()   #join()方法可以等待子进程结束后再继续往下运行,通常用于进程间的同步
    print('Child process end.')
Parent process 29444.
Child process will start.
Child process end.

Pool

如果需要大量子进程的话,可以用进程池的方式批量创建子进程

from multiprocessing import Pool
import os,time,random

def long_time_task(name):
    print('Run task %s (%s)' %(name, os.getpid()))
    start = time.time()
    time.sleep(random.random() * 3)
    end = time.time()
    print('Task %s runs %0.2f seconds' %(name, end-start))

if __name__ == '__main__':
    print('Parent process %s.' % os.getpid())
    p = Pool(4)
    for i in range(5):
        p.apply_async(long_time_task, args=(i, )) #每次循环都从p中初始化一个进程,主进程子进程并行运行,所以这个并不妨碍下面print的运行
        print(i)
    # 可以理解为执行子进程需要时间,所以下面的print先执行,子进程在运行但同时主进程也在运行
    print('Waiting for all subprocesses done...')
    p.close()  #close()之后就无法再添加新的进程
    p.join()       #join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close()
    print('All subprocesses done.')
Parent process 29444.
Waiting for all subprocesses done...

子进程

我们创建了子进程后还需要控制子进程的输入和输出
subprocess模块可以非常方便的创建一个子进程,然后控制其输入和输出

import subprocess

print('$ nslookup www.python.org')
r = subprocess.call(['nslookup', 'www.python.org'])
print('Exit code:', r)
$ nslookup www.python.org
Exit code: 0

如果子进程还需要输入,则可以通过communicate()方法输入

import subprocess

print('$ nslookup')
p = subprocess.Popen(['nslookup'], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
output, err = p.communicate(b'set q=mx\npython.org\nexit\n')
print(output.decode('gbk'))
print('Exit code:', p.returncode)
$ nslookup
默认服务器:  promote.cache-dns.local
Address:  221.131.143.69

> > 服务器:  promote.cache-dns.local
Address:  221.131.143.69

python.org    MX preference = 50, mail exchanger = mail.python.org
> 
Exit code: 0

进程间通信

在父进程中创建两个子进程,一个往Queue里写数据,一个从Queue里读数据:

# queue_process.py
from multiprocessing import Process, Queue
import os, time, random

# 写数据进程执行的代码:
def write(q):
    print('Process to write: %s' % os.getpid())
    for value in ['A', 'B', 'C']:
        print('Put %s to queue...' % value)
        q.put(value)
        time.sleep(random.random())

# 读数据进程执行的代码:
def read(q):
    print('Process to read: %s' % os.getpid())
    while True:
        value = q.get(True)
        print('Get %s from queue.' % value)

if __name__=='__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))
    # 启动子进程pw,写入:
    pw.start()
    # 启动子进程pr,读取:
    pr.start()
    # 等待pw结束:
    pw.join()
    # pr进程里是死循环,无法等待其结束,只能强行终止:
    pr.terminate()

多线程


python的标准库提供了两个模块:_thread 和 threading,大多数情况下我们只需要使用threading这个模块
同样的,启动一个线程就是把一个函数传入Thread实例,然后调用start()开始执行

import time, threading
#新线程执行的代码
def loop():
    print('thread %s is running...' % threading.current_thread().name)
    n=0
    while n<5:
        n = n + 1
        print('thread %s >>> %s' %(threading.current_thread().name, n))
        time.sleep(1)
    print('thread %s ended.' %threading.current_thread().name)

print('thread %s is running...' % threading.current_thread().name)
t = threading.Thread(target=loop, name='LoopThread')
t.start()
t.join()
print('thread %s ended.' % threading.current_thread().name)
thread LoopThread is running...thread MainThread is running...
thread LoopThread >>> 1

thread LoopThread >>> 2
thread LoopThread >>> 3
thread LoopThread >>> 4
thread LoopThread >>> 5
thread LoopThread ended.
thread MainThread ended.

current_thread()函数永远返回当前线程的实例

Lock

多线程和多进程最大的区别是,同一个变量,多进程中各自有一份拷贝在每个进程中,互不影响。而多线程中,所有变量都由所有线程共享,所以任何一个变量都可以被任何一个线程修改。

import threading
#多个线程同时操作一个变量可能把内容改乱了
#假定这是你的银行存款
balance = 0
def change_it(n):
    #先存后取,结果应该是0
    global balance
    balance = balance + n 
    balance = balance - n

def run_thread(n):
    for i in range(1000000):
        change_it(n)

t1 = threading.Thread(target=run_thread, args=(5,))
t2 = threading.Thread(target=run_thread, args=(8,))
t1.start()
t2.start()
t1.join()
t2.join()
print(balance)
10
  • 所以我们要确保balance计算正确,就要给change_it()上一把锁,使得当某个进程执行change_it()时其他进程无法同时执行,只等等待,直到锁被释放之后。
  • 创建一个锁是通过threading.Lock()来实现
balance = 0
lock = threading.Lock()   #先创建一个锁实例
def change_it(n):
    for i in range(1000000):
        #先要获得锁
        lock.acquire()
        try:
            change_it(n)
        finally:
            #该晚了一定要释放锁
            lock.release()
  • 当多个线程同时执行lock.acquire()时只有一个线程能获得锁,然后继续执行代码,其他线程就继续等待直到获得锁为止。
  • 由于锁的存在,阻止了多线程并发执行,效率降低了

多核CPU

如果写一个死循环的话,一个死循环线程会100%占用一个CPU,要想把计算机N个CPU全部跑满,就必须启动N个死循环线程

import threading, multiprocessing
def loop():
    x = 0
    while True:
        x = x * 1

for i in range(multiprocessing.cpu_count()):
    t = threading.Thread(target=loop)
    t.start()
  • 启动与CPU核心数量相同的N个线程,在4核CPU上可以监控到CPU占用率仅有102%,也就是仅使用了一核。
  • 因为Python的线程虽然是真正的线程,但解释器执行代码时,有一个GIL锁:Global Interpreter Lock,任何Python线程执行前,必须先获得GIL锁,然后,每执行100条字节码,解释器就自动释放GIL锁,让别的线程有机会执行。这个GIL全局锁实际上把所有线程的执行代码都给上了锁,所以,多线程在Python中只能交替执行,即使100个线程跑在100核CPU上,也只能用到1个核。
  • 不过,也不用过于担心,Python虽然不能利用多线程实现多核任务,但可以通过多进程实现多核任务。多个Python进程有各自独立的GIL锁,互不影响。

ThreadLocal


在多线程情况下,每个线程使用自己的局部变量比使用全局变量好,因为局部变量只有自己看的见,而全局变量的改动必须要加锁

但是局部变量在函数调用的时候会比较麻烦

def process_student(name):
    std = Student(name)
    # std是局部变量,但是每个函数都要用它,因此必须传进去:
    do_task_1(std)
    do_task_2(std)

def do_task_1(std):   #即使在task1中改变了std,由于它是局部变量,task2中的std依旧是那个std
    do_subtask_1(std)
    do_subtask_2(std)

def do_task_2(std):
    do_subtask_2(std)
    do_subtask_2(std)

上面那个代码很麻烦,如果用一个全局dict存放所有的Student对象,然后以thread自身作为key获得线程对应的Student对象如何?

global_dict = {}

def std_thread(name):
    std = Student(name)
    # 把std放到全局变量global_dict中:
    global_dict[threading.current_thread()] = std
    do_task_1()
    do_task_2()

def do_task_1():
    # 不传入std,而是根据当前线程查找:
    std = global_dict[threading.current_thread()]
    ...

def do_task_2():
    # 任何函数都可以查找出当前线程的std变量:
    std = global_dict[threading.current_thread()]
    ...

但是有没有更简单的方式?ThreadLocal应运而生

import threading
#创建ThreadLocal全局变量
local_school = threading.local()

def process_student():
    #获取当前线程关联的student
    std = local_school.student
    print('Hello, %s (in %s)' % (std, threading.current_thread().name))

def process_thread(name):
    # 绑定ThreadLocal的student:
    local_school.student = name
    process_student()

t1 = threading.Thread(target= process_thread, args=('Alice',), name='Thread-A')
t2 = threading.Thread(target= process_thread, args=('Bob',), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()
Hello, Alice (in Thread-A)
Hello, Bob (in Thread-B)
  • 一个ThreadLocal变量虽然是全局变量,但每个线程都只能读写自己线程的独立副本,互不干扰。ThreadLocal解决了参数在一个线程中各个函数之间互相传递的问题
  • 你可以把local_school看成全局变量,但每个属性如local_school.student都是线程的局部变量,可以任意读写而互不干扰,也不用管理锁的问题,ThreadLocal内部会处理。

进程VS线程


  • 要实现多任务,通常我们会设计master-worker模式,master负责分配任务,worker负责执行任务
  • 如果用多进程实现Master-Worker,主进程就是Master,其他进程就是Worker。
  • 如果用多线程实现Master-Worker,主线程就是Master,其他线程就是Worker。

多进程模式最大的优点就是稳定性高,因为一个子进程崩溃了,不会影响主进程和其他子进程。(当然主进程挂了所有进程就全挂了,但是Master进程只负责分配任务,挂掉的概率低)著名的Apache最早就是采用多进程模式。

多进程模式的缺点是创建进程的代价大,在Unix/Linux系统下,用fork调用还行,在Windows下创建进程开销巨大。另外,操作系统能同时运行的进程数也是有限的,在内存和CPU的限制下,如果有几千个进程同时运行,操作系统连调度都会成问题。

多线程模式通常比多进程快一点,但是也快不到哪去,而且,多线程模式致命的缺点就是任何一个线程挂掉都可能直接造成整个进程崩溃,因为所有线程共享进程的内存。在Windows上,如果一个线程执行的代码出了问题,你经常可以看到这样的提示:“该程序执行了非法操作,即将关闭”,其实往往是某个线程出了问题,但是操作系统会强制结束整个进程。

在Windows下,多线程的效率比多进程要高,所以微软的IIS服务器默认采用多线程模式。由于多线程存在稳定性的问题,IIS的稳定性就不如Apache。为了缓解这个问题,IIS和Apache现在又有多进程+多线程的混合模式,真是把问题越搞越复杂。

分布式进程


  • 在Thread和Process中应当优选Process,因为Process更稳定。而且Process可以分布到多台机器上,Thread只能分布在一台机器上
  • python的multiprocessing模块不但支持多进程,其managers子模块还支持把多个进程分布到多台机器上,一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。

举个例子,假如现在已经有一个通过Queue通信的多进程程序在同一台机器上运行,现在由于处理任务的进程任务繁重,希望把发送任务的进程和处理任务的进程分布在两台机器上,怎么用分布式进程实现呢?

通过managers模块把Queue通过网络暴露出去,就可以让其他机器的进程访问Queue了。

我们先看服务进程,服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务:

import random, time, queue
from multiprocessing import freeze_support
from multiprocessing.managers import BaseManager

# 发送任务的队列:
task_queue = queue.Queue()
# 接收结果的队列:
result_queue = queue.Queue()


# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
    pass


def return_task_queue():
    global task_queue
    return task_queue


def return_result_queue():
    global result_queue
    return result_queue

def ceshi():
    # 把两个Queue都注册到网络上, callable参数关联了Queue对象:
    # QueueManager.register('get_task_queue', callable=lambda: task_queue)
    # QueueManager.register('get_result_queue', callable=lambda: result_queue)
    QueueManager.register('get_task_queue', callable=return_task_queue)
    QueueManager.register('get_result_queue', callable=return_result_queue)

    # 绑定端口5000, 设置验证码'abc':
    manager = QueueManager(address=('127.0.0.1', 5000), authkey=b'abc')
    # 启动Queue:
    manager.start()
    # 获得通过网络访问的Queue对象:
    task = manager.get_task_queue()
    result = manager.get_result_queue()
    # 放几个任务进去:
    for i in range(10):
        n = random.randint(0, 10000)
        print('Put task %d...' % n)
        task.put(n)
    # 从result队列读取结果:
    print('Try get results...')
    for i in range(10):
        r = result.get(timeout=10)
        print('Result: %s' % r)
    # 关闭:
    manager.shutdown()
    print('master exit.')


if __name__ == '__main__':
    freeze_support()
    ceshi()
Put task 337...
Put task 2278...
Put task 9258...
Put task 1975...
Put task 7342...
Put task 8540...
Put task 1659...
Put task 7008...
Put task 6128...
Put task 3709...
Try get results...
Result: 337 * 337 = 113569
Result: 2278 * 2278 = 5189284
Result: 9258 * 9258 = 85710564
Result: 1975 * 1975 = 3900625
Result: 7342 * 7342 = 53904964
Result: 8540 * 8540 = 72931600
Result: 1659 * 1659 = 2752281
Result: 7008 * 7008 = 49112064
Result: 6128 * 6128 = 37552384
Result: 3709 * 3709 = 13756681
master exit.

请注意,当我们在一台机器上写多进程程序时,创建的Queue可以直接拿来用,但是,在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。

#task_worker.py
import time, sys, queue
from multiprocessing.managers import BaseManager

# 创建类似的QueueManager:
class QueueManager(BaseManager):
    pass
#由于这个QueueManager只从网上获取Queue,所以注册时只提供名字
QueueManager.register('get_task_queue')
QueueManager.register('get_result_queue')
#连接到服务器,也就是运行task_master.py的机器
server_addr = '127.0.0.1'
print('Connect to server %s...' % server_addr)
# 端口和验证码注意保持与task_master.py设置的完全一致:
m = QueueManager(address=(server_addr, 5000), authkey=b'abc')
# 从网络连接:
m.connect()
# 获取Queue的对象:
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列取任务,并把结果写入result队列:
for i in range(10):
    try:
        n = task.get(timeout=1)
        print('run task %d * %d...' % (n, n))
        r = '%d * %d = %d' % (n, n, n*n)
        time.sleep(1)
        result.put(r)
    except Queue.Empty:
        print('task queue is empty.')
# 处理结束:
print('worker exit.')
Connect to server 127.0.0.1...
run task 337 * 337...
run task 2278 * 2278...
run task 9258 * 9258...
run task 1975 * 1975...
run task 7342 * 7342...
run task 8540 * 8540...
run task 1659 * 1659...
run task 7008 * 7008...
run task 6128 * 6128...
run task 3709 * 3709...
worker exit.

文章作者: lovelyfrog
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 lovelyfrog !
 上一篇
错误处理 错误处理
错误处理 记录错误 python内置的logging模块可以非常容易的记录错误信息程序打印完错误信息后会继续执行,并正常退出 import logging def foo(s): return 10/int(s) def bar
2017-09-08
下一篇 
常用内建模块 常用内建模块
常用内建模块 from datetime import datetime m = datetime.now() class ss(object): def __init__(cls, name): cls.nam
2017-09-08
  目录