一、引言
定义:
‘‘‘ 定义: In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple native threads from executing Python bytecodes at once. This lock is necessary mainly because CPython’s memory management is not thread-safe. (However, since the GIL exists, other features have grown to depend on the guarantees that it enforces.) ‘‘‘ """ 在 CPython中,全局解释器锁GIL,本质就是一把互斥锁(mutex),这把互斥锁是阻止了多个活跃的线程, 同一时间只能运行一次 python的字节码(python解释器的代码),这把锁是非常重要的,因为 CPython的 内存管理(垃圾回收机制)不是线程安全的,(无论如何,有了这把锁的存在,python的一些其他的特性都依赖于这把锁) """ # 结论:在 Cpython 解释器中,同一个进程下开启的多线程,同一时刻只能有一个线程执行,无法利用多核优势。
首先需要明确的一点是 GIL 并不是 Python 的特性,它是在实现 Python 解析器(CPython)时所引入的一个概念。就好比 C++ 是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器例如 GCC,INTEL C++,Visual C++等。Python也一样,同样一段代码可以通过 CPython,PyPy,Psyco 等不同的Python执行环境来执行。像其中的JPython就没有GIL。然而因为CPython是大部分环境下默认的Python执行环境。所以在很多人的概念里CPython就是Python,也就想当然的把GIL归结为Python语言的缺陷。所以这里要先明确一点:GIL并不是Python的特性,Python完全可以不依赖于GIL。
二、互斥锁
与进程的互斥锁的原理一样,都是把并发变成串行,牺牲了效率,但是保证了数据安全。
互斥锁的精髓在于,保证的是局部串行,只针对共享数据那一部分的修改,让他们串行。
from threading import Thread import time n = 100 def task(): global n temp = n time.sleep(1) # 一个线程开启,在这里停下,睡1s,足够下面的99个线程开启,就造成了,所有的线程都停在这。 n = temp - 1 # 因为在同一个进程中,数据共享,所有的线程都拿到了 temp = 100,都执行 n = temp - 1,所以一最后的结果是99,造成数据不安全。 if __name__ == "__main__": t_lis = [] for i in range(100): # 因为是并发执行,运行效率高,但是数据不安全 t = Thread(target=task) t_lis.append(t) t.start() for t in t_lis: t.join() # 保证所有线程都执行完毕 print("主",n) # 主 99
# 互斥锁:效率低,但是数据安全,局部串行 from threading import Thread,Lock import time n = 100 def task(): global n mutex.acquire() # 其他99个线程都在这等着,第一个线程把锁释放掉后,抢这把锁,但是此时的 n值已经变了, temp = n time.sleep(0.1) # 第一个线程拿到这把锁之后,停在这睡,这期间足够其他99个线程开启, n = temp - 1 mutex.release() if __name__ == "__main__": mutex = Lock() t_lis = [] for i in range(100): t = Thread(target=task) t_lis.append(t) t.start() for t in t_lis: t.join() # 保证所有线程都执行完毕 print("主",n) # 主 0
acquire 只能一次,必须等 release 释放之后再重新 acquire,否则会造成阻塞。
三、GIL介绍
GIL本质就是一把互斥锁,既然是互斥锁,所有互斥锁的本质都一样,都是将并发运行变成串行,以此来控制同一时间内共享数据只能被一个任务所修改,进而保证数据安全。
可以肯定的一点是:保护不同的数据的安全,就应该加不同的锁。
要想了解GIL,首先确定一点:每次执行python程序,都会产生一个独立的进程。
例如 python test.py,python aaa.py,python bbb.py 会产生3个不同的python进程。
验证 python test.py 只会产生一个进程:
# test.py内容 import os,time print(os.getpid()) time.sleep(1000) # 打开终端执行 python3 test.py # 在windows下查看 tasklist |findstr python # 在linux下下查看 ps aux |grep python
在一个 python 的进程内,不仅有 test.py 的主线程或者由该主线程开启的其他线程,还有解释器开启的垃圾回收等解释器级别的线程,总之,所有线程都运行在这一个进程内。
""" 1,所有数据都是共享的,这其中,代码作为一种数据也是被所有线程共享的(test.py的所有代码以及Cpython解释器的所有代码) 例如:test.py定义一个函数work(代码内容如下图),在进程内所有线程都能访问到work的代码,于是我们可以开启三个线程 然后target都指向该代码,能访问到意味着就是可以执行。 2,所有线程的任务,都需要将任务的代码当做参数传给解释器的代码去执行,即所有的线程要想运行自己的任务,首先需要解决的是能够访问到解释器的代码。 """
综上:
如果多个线程的 target=work,那么执行流程是:
多个线程先访问到解释器的代码,即拿到执行权限,然后将target的代码交给解释器的代码去执行。
解释器的代码是所有线程共享的,所以垃圾回收线程也可能访问到解释器的代码而去执行,这就导致了一个问题:
对于同一个数据100,可能线程1执行 x = 100 的同时,而垃圾回收执行的是回收100的操作,解决这种问题没有什么高明的方法,就是加锁处理。
如:下图的 GIL,保证 python解释器同一时间只能执行一个任务的代码。
运行python程序经历了几步?
第一步:申请一个内存空间,产生一个进程,然后先把python解释器的代码(C语言的代码)加载到内存中。
第二步:把自己写的可执行的 .py文件里面的内容加载到内存中。
第三步:解释执行(运行一个py文件,实际上产生的是一个解释器那样的一个进程)
四、GIL与Lock(自定义互斥锁)的区别
三个需要注意的点:
# 1.线程抢的是GIL锁,GIL锁相当于执行权限,拿到执行权限后才能拿到互斥锁Lock,其他线程也可以抢到GIL,但如果发现Lock仍然没有被释放则阻塞,即便是拿到执行权限GIL也要立刻交出来 # 2.join是等待所有,即整体串行,而锁只是锁住修改共享数据的部分,即部分串行,要想保证数据安全的根本原理在于让并发变成串行,join与互斥锁都可以实现,毫无疑问,互斥锁的部分串行效率要更高
那么 Python已经有一个GIL来保证同一时间只能有一个线程来执行了,为什么这里还需要lock?
首先,我们需要达成共识:锁的目的是为了保护共享的数据,同一时间只能有一个线程来修改共享的数据。
然后,我们可以得出结论:保护不同的数据就应该加不同的锁。
最后,问题就很明朗了,GIL 与Lock是两把锁,保护的数据不一样,前者是解释器级别的(当然保护的就是解释器级别的数据,比如垃圾回收的数据),后者是保护用户自己开发的应用程序的数据,很明显GIL不负责这件事,只能用户自定义加锁处理,即Lock,如下图:
过程分析:
""" 所有线程抢的是GIL锁,或者说所有线程抢的是执行权限。 线程1抢到GIL锁,拿到执行权限,开始执行,然后加了一把Lock,还没有执行完毕,即线程1还未释放Lock, 有可能线程2抢到GIL锁,开始执行,执行过程中发现Lock还没有被线程1释放,于是线程2进入阻塞,被夺走 执行权限,有可能线程1拿到GIL,然后正常执行到释放Lock。。。这就导致了串行运行的效果。 既然是串行,那我们执行 t1.start() t1.join t2.start() t2.join() 这也是串行执行啊,为何还要加Lock呢,需知join是等待t1所有的代码执行完,相当于锁住了t1的所有代码, 而Lock只是锁住一部分操作共享数据的代码。 """
""" 因为Python解释器帮你自动定期进行内存回收,你可以理解为python解释器里有一个独立的线程, 每过一段时间它起wake up做一次全局轮询看看哪些内存数据是可以被清空的,此时你自己的程序里的 线程和py解释器自己的线程是并发运行的,假设你的线程删除了一个变量,py解释器的垃圾回收线程在清空 这个变量的过程中的clearing时刻,可能一个其它线程正好又重新给这个还没来及得清空的内存空间赋值了, 结果就有可能新赋值的数据被删除了,为了解决类似的问题,python解释器简单粗暴的加了锁,即当一个线程 运行时,其它人都不能动,这样就解决了上述的问题,这可以说是Python早期版本的遗留问题。 """
from threading import Thread import time def work(): global n temp = n time.sleep(0.1) n = temp-1 if __name__ == ‘__main__‘: n = 100 l = [] for i in range(100): p = Thread(target=work) l.append(p) p.start() for p in l: p.join() print(n) # 结果可能为99
锁通常被用来实现对共享资源的同步访问。为每一个共享资源创建一个Lock对象,当你需要访问该资源时,调用acquire方法来获取锁对象(如果其它线程已经获得了该锁,则当前线程需等待其被释放),待资源访问完后,再调用release方法释放锁:
import threading T = threading.Lock() T.acquire() ‘‘‘ 对公共数据的操作 ‘‘‘ T.release()
from threading import Thread,Lock import time def work(): global n lock.acquire() temp = n time.sleep(0.1) n = temp-1 lock.release() if __name__ == ‘__main__‘: lock = Lock() n = 100 l = [] for i in range(100): p = Thread(target=work) l.append(p) p.start() for p in l: p.join() print(n) # 结果肯定为0,由原来的并发执行变成串行,牺牲了执行效率保证了数据安全
GIL锁与互斥锁综合分析(重点):
""" 1、100个线程去抢GIL锁,即抢执行权限。 2、肯定有一个线程先抢到GIL(暂且称为线程1),然后开始执行,一旦执行就会拿到lock.acquire() 3、极有可能线程1还未运行完毕,就有另外一个线程2抢到GIL,然后开始运行,但线程2发现互斥锁lock还未被线程1释放,于是阻塞,被迫交出执行权限,即释放GIL。 4、直到线程1重新抢到GIL,开始从上次暂停的位置继续执行,直到正常释放互斥锁lock,然后其他的线程再重复2 3 4的过程。 """
互斥锁与join的区别(重点):
# 不加锁:并发执行,速度快,数据不安全 from threading import current_thread,Thread import time def task(): global n print(‘%s is running‘ % current_thread().getName()) temp = n time.sleep(0.5) n = temp-1 if __name__ == ‘__main__‘: n = 100 threads = [] start_time = time.time() for i in range(100): t = Thread(target=task) threads.append(t) t.start() for t in threads: t.join() stop_time = time.time() print(‘主:%s n:%s‘ % (stop_time-start_time,n)) ‘‘‘ Thread-1 is running Thread-2 is running ...... Thread-100 is running 主:0.5168161392211914 n:99 ‘‘‘
# 不加锁:未加锁部分并发执行,加锁部分串行执行,速度慢,数据安全 from threading import current_thread,Thread,Lock import time def task(): # 未加锁的代码并发运行 time.sleep(2) print(‘%s is running‘ % current_thread().getName()) global n # 加锁的代码串行运行 lock.acquire() temp = n time.sleep(0.5) n = temp-1 lock.release() if __name__ == ‘__main__‘: n = 100 lock = Lock() threads = [] start_time = time.time() for i in range(100): t = Thread(target=task) threads.append(t) t.start() for t in threads: t.join() stop_time = time.time() print(‘主:%s n:%s‘ % (stop_time-start_time,n)) ‘‘‘ Thread-1 is running Thread-2 is running ...... Thread-100 is running 主:52.066824436187744 n:0 ‘‘‘
# 有人会说:既然加锁会让运行变成串行,那么我在start之后立即使用join,就不用加锁了啊,也是串行的效果啊 # 没错:在start之后立刻使用jion,肯定会将100个任务的执行变成串行,毫无疑问,最终n的结果也肯定是0,是安全的,但问题是 # start后立即join:任务内的所有代码都是串行执行的,而加锁,只是加锁的部分即修改共享数据的部分是串行的 # 单从保证数据安全方面,二者都可以实现,但很明显是加锁的效率更高.
# 不加锁,用join,耗时恐怖 from threading import current_thread,Thread,Lock import time def task(): time.sleep(3) print(‘%s start to run‘ % current_thread().getName()) global n temp = n time.sleep(0.5) n = temp-1 if __name__ == ‘__main__‘: n = 100 lock = Lock() start_time = time.time() for i in range(100): t = Thread(target=task) t.start() t.join() stop_time = time.time() print(‘主:%s n:%s‘ % (stop_time-start_time,n)) """ Thread-1 start to run Thread-2 start to run ...... Thread-100 start to run 主:350.6937336921692 n:0 # 耗时是多么的恐怖 """
总结:
""" 1,GIL 保证了一件事是一个进程内的多个线程,它们同一时间只能有一个执行,这么做是因为,我想要保证 python的垃圾回收是线程安全的,加了一把GIL锁,产生的效果是,多个线程只能有一个出来运行。 2,针对不同的数据,就应该加不同的锁,解释器级别的GIL锁,保护的是解释器级别的数据,保护不了用户自己的数据, 针对自己的共享数据,需要自己加锁处理。 3,工作流程,各个线程首先抢的并不是 mutex,而是GIL锁,它需要获得执行权限,接下来才会抢 mutex。 """
五、GIL与多线程
有了GIL的存在,同一时刻同一进程中只有一个线程被执行。
有人可能会想到:进程可以利用多核,但是开销大,而python的多线程开销小,但却无法利用多核优势,也就是说python没用了,php才是最牛逼的语言?
要解决这个问题,我们需要在几个点上达成一致:
# 1,cpu到底是用来做计算的,还是用来做I/O的?cpu是做计算的,碰到I/O的话会去干别的活。 # 2,多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能 # 3,每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处
一个工人相当于cpu,此时计算相当于工人在干活,I/O阻塞相当于为工人干活提供所需原材料的过程,工人干活的过程中如果没有原材料了,则工人干活的过程需要停止,直到等待原材料的到来。
如果你的工厂干的大多数任务都要有准备原材料的过程(I/O密集型),那么你有再多的工人,意义也不大,还不如一个人,在等材料的过程中让工人去干别的活。
反过来讲,如果你的工厂原材料都齐全,那当然是工人越多,效率越高。
结论:
# 1,对计算来说,cpu越多越好,但是对于I/O来说,再多的cpu也没用 # 2,当然对运行一个程序来说,随着cpu的增多执行效率肯定会有所提高(不管提高幅度多大,总会有所提高), # 这是因为一个程序基本上不会是纯计算或者纯I/O,所以我们只能相对的去看一个程序到底是计算密集型 # 还是I/O密集型,从而进一步分析python的多线程到底有无用武之地。
假设我们有四个任务需要处理,处理方式肯定是要玩出并发的效果,解决方案可以是:
# 方案一:开启四个进程 # 方案二:一个进程下,开启四个线程
单核情况下,分析结果:
# 如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜。 # 如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜。
多核情况下,分析结果:
# 如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜。 # 如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜
结论:
# 现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升, # 甚至不如串行(没有大量切换),但是,对于IO密集型的任务效率还是有显著提升的。
六、多线程性能测试
如果并发的多个任务是计算密集型:多进程效率高
from multiprocessing import Process from threading import Thread import os,time def work(): res = 0 for i in range(100000000): res *= i if __name__ == ‘__main__‘: l = [] print(os.cpu_count()) # 本机为8核 start = time.time() for i in range(8): # p = Process(target=work) # 耗时8s多 p = Thread(target=work) # 耗时39s多 l.append(p) p.start() for p in l: p.join() stop = time.time() print(‘run time is %s‘ % (stop-start))
如果并发的多个任务是I/O密集型:多线程效率高
from multiprocessing import Process from threading import Thread import os,time def work(): time.sleep(2) if __name__ == ‘__main__‘: l = [] print(os.cpu_count()) # 本机为8核 start = time.time() for i in range(400): p = Process(target=work) # 耗时11s多,大部分时间耗费在创建进程上 # p = Thread(target=work) # 耗时2s多 l.append(p) p.start() for p in l: p.join() stop = time.time() print(‘run time is %s‘ % (stop-start))
应用:
# 1,多线程用于IO密集型,如:socket,爬虫,web # 2,多进程用于计算密集型,如:金融分析
八、死锁现象与递归锁
1,死锁现象:
所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去。此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进程称为死锁进程,如下就是死锁:
from threading import Thread,Lock import time mutexA = Lock() mutexB = Lock() class MyThread(Thread): def run(self): self.func1() self.func2() def func1(self): mutexA.acquire() print(‘\033[41m%s 拿到A锁\033[0m‘ %self.name) mutexB.acquire() print(‘\033[42m%s 拿到B锁\033[0m‘ %self.name) mutexB.release() mutexA.release() def func2(self): mutexB.acquire() print(‘\033[43m%s 拿到B锁\033[0m‘ %self.name) time.sleep(2) mutexA.acquire() print(‘\033[44m%s 拿到A锁\033[0m‘ %self.name) mutexA.release() mutexB.release() if __name__ == ‘__main__‘: for i in range(10): t = MyThread() t.start() """ Thread-1 拿到A锁 Thread-1 拿到B锁 Thread-1 拿到B锁 Thread-2 拿到A锁 卡住了,死锁了,整个程序阻塞住 """
2,递归锁:
可以连续 acquire多次,每 acquire一次计数器 +1,只有计数为0时,才能抢到 acquire。
解决方法,递归锁,在Python中为了支持在同一线程中多次请求同一资源,python提供了可重入锁RLock。
这个RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次require。直到一个线程所有的acquire都被release,其他的线程才能获得资源。上面的例子如果使用RLock代替Lock,则不会发生死锁,二者的区别是:递归锁可以连续acquire多次,而互斥锁只能acquire一次。
from threading import Thread,RLock import time # 一个线程拿到锁,counter加1,该线程内又碰到加锁的情况,则counter继续加1,这期间所有其他线程 # 都只能等待,等待该线程释放所有锁,即counter递减到0为止 mutexA = mutexB = RLock() class MyThread(Thread): def run(self): self.func1() self.func2() def func1(self): mutexA.acquire() print(‘\033[41m%s 拿到A锁\033[0m‘ %self.name) mutexB.acquire() print(‘\033[42m%s 拿到B锁\033[0m‘ %self.name) mutexB.release() mutexA.release() def func2(self): mutexB.acquire() print(‘\033[43m%s 拿到B锁\033[0m‘ %self.name) time.sleep(2) mutexA.acquire() print(‘\033[44m%s 拿到A锁\033[0m‘ %self.name) mutexA.release() mutexB.release() if __name__ == ‘__main__‘: for i in range(10): t = MyThread() t.start()
原文:https://www.cnblogs.com/zoling7/p/13392632.html