一、并发事务处理带来的问题
相对于串行处理,并发事务(InnoDB)处理能大大增加数据库资源的利用率,提高数据库系统的事务吞吐量,从而可以支持更多用户。
但并发事务处理也会带来一些问题,主要有一下几种情况:
更新丢失(Lost Update)
两个或者多个事务同时选择同一行数据,都基于最初选定的值更新该行,由于每个事务都不知道其它事务的存在,就会发生更新丢失的问题——最后提交的更新覆盖了之前其它事务所做的更新。
脏读(Dirty Reads)
一个事务正在对一条记录进行修改,这个事务完成并提交前,这条记录的数据就处于不一致的状态。此时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些“脏”数据,并依据此做了进一步的处理,就会产生对未提交的数据的依赖关系。这种现象就叫做“脏读”。
不可重复读(Non-Repetable Reads)
一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现读出的数据已经发生了改变、或者某些记录已经被删除了!这种现象叫“不可重复读”。
幻读(Phantom Reads)
一个事务按相同的查询条件重新读取以前检索过的数据,却发现其它事务插入了满足其查询条件的新数据。这种现象叫“幻读”。
二、事务的隔离级别
上述提到的并发事务处理带来的问题,“更新丢失”是应该完全避免的。
防止更新丢失,不能单单靠数据库事务控制器来解决,需要应用程序对要更新的数据加必要的锁来解决,因此,防止更新丢失应该是应用的责任。
脏读、不可重复读和幻读,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。数据库实现事务隔离的方式,有以下两种:
1、在读取数据前,对其加锁,阻止其它事务对数据进行修改。
2、另一种是不用加任何锁,通过一定的机制生成一个数据请求时间点的一致性数据快照,并用这个快照来提供一定级别(语句级别或者事务级别)的一致性读取。从用户的角度看,就好像数据库可以提供同一数据的多个版本,因此这种技术叫做数据多版本并发控制(MVCC)或多版本数据库。
数据库的事务隔离越严格,并发副作用越小,但是付出的代价越大。因为事务隔离实质上是让事务在一定程度上“串行化”进行,这显然与并发是矛盾的。同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读”和“幻读”并不敏感,可能更关心数据并发访问能力。
为了解决事务“隔离”与“并发”的矛盾,ISO/ANSI SQL92定义了4个事务隔离级别,每个级别的隔离程度不同,允许出现的副作用也不同,应用可以根据自己的业务逻辑要求,通过选择不同的隔离级别来平衡隔离与并发的矛盾。
4种隔离级别如下图:
数据库未必就一定实现了上述4个隔离级别,Orcale、SQL Server等各有不同。MySQL支持全部的四个隔离级别,但在具体实现时,有一些特点,比如在一些隔离级别下采用MVCC一致性读,但是某些情况下又不是。
三、对于InnoDB表的锁问题的小结
小结:
在了解了InnoDB锁特性后,用户可以通过设计和SQL调整等措施减少锁冲突和死锁,包括:
原文:https://www.cnblogs.com/bigbigbigo/p/10936714.html