python并發(fā)編程之多進程、多線程、異步和協(xié)程詳解
最近學習python并發(fā),于是對多進程、多線程、異步和協(xié)程做了個總結。
一、多線程
多線程就是允許一個進程內存在多個控制權,以便讓多個函數(shù)同時處于激活狀態(tài),從而讓多個函數(shù)的操作同時運行。即使是單CPU的計算機,也可以通過不停地在不同線程的指令間切換,從而造成多線程同時運行的效果。
多線程相當于一個并發(fā)(concunrrency)系統(tǒng)。并發(fā)系統(tǒng)一般同時執(zhí)行多個任務。如果多個任務可以共享資源,特別是同時寫入某個變量的時候,就需要解決同步的問題,比如多線程火車售票系統(tǒng):兩個指令,一個指令檢查票是否賣完,另一個指令,多個窗口同時賣票,可能出現(xiàn)賣出不存在的票。
在并發(fā)情況下,指令執(zhí)行的先后順序由內核決定。同一個線程內部,指令按照先后順序執(zhí)行,但不同線程之間的指令很難說清除哪一個會先執(zhí)行。因此要考慮多線程同步的問題。同步(synchronization)是指在一定的時間內只允許某一個線程訪問某個資源。
1、thread模塊
2、threading模塊
threading.Thread 創(chuàng)建一個線程。
給判斷是否有余票和賣票,加上互斥鎖,這樣就不會造成一個線程剛判斷沒有余票,而另外一個線程就執(zhí)行賣票操作。
#! /usr/bin/python #-* coding: utf-8 -* # __author__ ="tyomcat" import threading import time import os def booth(tid): global i global lock while True: lock.acquire() if i!=0: i=i-1 print "窗口:",tid,",剩余票數(shù):",i time.sleep(1) else: print "Thread_id",tid,"No more tickets" os._exit(0) lock.release() time.sleep(1) i = 100 lock=threading.Lock() for k in range(10): new_thread = threading.Thread(target=booth,args=(k,)) new_thread.start()
二、協(xié)程(又稱微線程,纖程)
協(xié)程,與線程的搶占式調度不同,它是協(xié)作式調度。協(xié)程也是單線程,但是它能讓原來要使用異步+回調方式寫的非人類代碼,可以用看似同步的方式寫出來。
1、協(xié)程在python中可以由生成器(generator)來實現(xiàn)。
首先要對生成器和yield有一個扎實的理解.
調用一個普通的python函數(shù),一般是從函數(shù)的第一行代碼開始執(zhí)行,結束于return語句、異?;蛘吆瘮?shù)執(zhí)行(也可以認為是隱式地返回了None)。
一旦函數(shù)將控制權交還給調用者,就意味著全部結束。而有時可以創(chuàng)建能產(chǎn)生一個序列的函數(shù),來“保存自己的工作”,這就是生成器(使用了yield關鍵字的函數(shù))。
能夠“產(chǎn)生一個序列”是因為函數(shù)并沒有像通常意義那樣返回。return隱含的意思是函數(shù)正將執(zhí)行代碼的控制權返回給函數(shù)被調用的地方。而"yield"的隱含意思是控制權的轉移是臨時和自愿的,我們的函數(shù)將來還會收回控制權。
看一下生產(chǎn)者/消費者的例子:
#! /usr/bin/python #-* coding: utf-8 -* # __author__ ="tyomcat" import time import sys # 生產(chǎn)者 def produce(l): i=0 while 1: if i < 10: l.append(i) yield i i=i+1 time.sleep(1) else: return # 消費者 def consume(l): p = produce(l) while 1: try: p.next() while len(l) > 0: print l.pop() except StopIteration: sys.exit(0) if __name__ == "__main__": l = [] consume(l)
當程序執(zhí)行到produce的yield i時,返回了一個generator并暫停執(zhí)行,當我們在custom中調用p.next(),程序又返回到produce的yield i 繼續(xù)執(zhí)行,這樣 l 中又append了元素,然后我們print l.pop(),直到p.next()引發(fā)了StopIteration異常。
2、Stackless Python
3、greenlet模塊
基于greenlet的實現(xiàn)則性能僅次于Stackless Python,大致比Stackless Python慢一倍,比其他方案快接近一個數(shù)量級。其實greenlet不是一種真正的并發(fā)機制,而是在同一線程內,在不同函數(shù)的執(zhí)行代碼塊之間切換,實施“你運行一會、我運行一會”,并且在進行切換時必須指定何時切換以及切換到哪。
4、eventlet模塊
三、多進程
1、子進程(subprocess包)
在python中,通過subprocess包,fork一個子進程,并運行外部程序。
調用系統(tǒng)的命令的時候,最先考慮的os模塊。用os.system()和os.popen()來進行操作。但是這兩個命令過于簡單,不能完成一些復雜的操作,如給運行的命令提供輸入或者讀取命令的輸出,判斷該命令的運行狀態(tài),管理多個命令的并行等等。這時subprocess中的Popen命令就能有效的完成我們需要的操作
>>>import subprocess >>>command_line=raw_input() ping -c 10 www.baidu.com >>>args=shlex.split(command_line) >>>p=subprocess.Popen(args)
利用subprocess.PIPE將多個子進程的輸入和輸出連接在一起,構成管道(pipe):
import subprocess child1 = subprocess.Popen(["ls","-l"], stdout=subprocess.PIPE) child2 = subprocess.Popen(["wc"], stdin=child1.stdout,stdout=subprocess.PIPE) out = child2.communicate() print(out)
communicate() 方法從stdout和stderr中讀出數(shù)據(jù),并輸入到stdin中。
2、多進程(multiprocessing包)
(1)、multiprocessing包是Python中的多進程管理包。與threading.Thread類似,它可以利用multiprocessing.Process對象來創(chuàng)建一個進程。
進程池 (Process Pool)可以創(chuàng)建多個進程。
apply_async(func,args) 從進程池中取出一個進程執(zhí)行func,args為func的參數(shù)。它將返回一個AsyncResult的對象,你可以對該對象調用get()方法以獲得結果。
close() 進程池不再創(chuàng)建新的進程
join() wait進程池中的全部進程。必須對Pool先調用close()方法才能join。
#! /usr/bin/env python # -*- coding:utf-8 -*- # __author__ == "tyomcat" # "我的電腦有4個cpu" from multiprocessing import Pool import os, time def long_time_task(name): print 'Run task %s (%s)...' % (name, os.getpid()) start = time.time() time.sleep(3) end = time.time() print 'Task %s runs %0.2f seconds.' % (name, (end - start)) if __name__=='__main__': print 'Parent process %s.' % os.getpid() p = Pool() for i in range(4): p.apply_async(long_time_task, args=(i,)) print 'Waiting for all subprocesses done...' p.close() p.join() print 'All subprocesses done.'
(2)、多進程共享資源
通過共享內存和Manager對象:用一個進程作為服務器,建立Manager來真正存放資源。
其它的進程可以通過參數(shù)傳遞或者根據(jù)地址來訪問Manager,建立連接后,操作服務器上的資源。
#! /usr/bin/env python # -*- coding:utf-8 -*- # __author__ == "tyomcat" from multiprocessing import Queue,Pool import multiprocessing,time,random def write(q): for value in ['A','B','C','D']: print "Put %s to Queue!" % value q.put(value) time.sleep(random.random()) def read(q,lock): while True: lock.acquire() if not q.empty(): value=q.get(True) print "Get %s from Queue" % value time.sleep(random.random()) else: break lock.release() if __name__ == "__main__": manager=multiprocessing.Manager() q=manager.Queue() p=Pool() lock=manager.Lock() pw=p.apply_async(write,args=(q,)) pr=p.apply_async(read,args=(q,lock)) p.close() p.join() print print "所有數(shù)據(jù)都寫入并且讀完"
四、異步
無論是線程還是進程,使用的都是同步進制,當發(fā)生阻塞時,性能會大幅度降低,無法充分利用CPU潛力,浪費硬件投資,更重要造成軟件模塊的鐵板化,緊耦合,無法切割,不利于日后擴展和變化。
不管是進程還是線程,每次阻塞、切換都需要陷入系統(tǒng)調用(system call),先讓CPU跑操作系統(tǒng)的調度程序,然后再由調度程序決定該跑哪一個進程(線程)。多個線程之間在一些訪問互斥的代碼時還需要加上鎖,
現(xiàn)下流行的異步server都是基于事件驅動的(如nginx)。
異步事件驅動模型中,把會導致阻塞的操作轉化為一個異步操作,主線程負責發(fā)起這個異步操作,并處理這個異步操作的結果。由于所有阻塞的操作都轉化為異步操作,理論上主線程的大部分時間都是在處理實際的計算任務,少了多線程的調度時間,所以這種模型的性能通常會比較好。
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
python神經(jīng)網(wǎng)絡tf.name_scope和tf.variable_scope函數(shù)區(qū)別
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡tf.name_scope和tf.variable_scope函數(shù)的使用區(qū)別,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-05-05Tensorflow中批量讀取數(shù)據(jù)的案列分析及TFRecord文件的打包與讀取
這篇文章主要介紹了Tensorflow中批量讀取數(shù)據(jù)的案列分析及TFRecord文件的打包與讀取,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-06-06python中sort()和sorted()的區(qū)別及用法實例
我們通常會遇到對數(shù)據(jù)庫中的數(shù)據(jù)進行排序的問題,下面這篇文章主要給大家介紹了關于python中sort()和sorted()的區(qū)別及用法的相關資料,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下2022-06-06