首页 > 其他 > 详细

腾讯游戏10大经典案例(一):唯一索引上的重复键

时间:2015-03-23 00:25:20      阅读:218      评论:0      收藏:0      [点我收藏+]

  2012/12/20某业务合服后在唯一索引键上出现了重复键现象:

mysql> select count(RoleGID) from RoleData_0;
+----------------+
| count(RoleGID) |
+----------------+
|          41255 |
+----------------+
1 row in set (0.00 sec)
 
mysql> select count(distinct RoleGID) from RoleData_0; 
+-------------------------+
| count(distinct RoleGID) |
+-------------------------+
|                   41123 |
+-------------------------+
1 row in set (0.00 sec)

  其中RoleGID是表RoleData_0的唯一索引,但是部分数据却出现重复。

  【问题回顾】
   运维同事反馈,问题是这样产生的:
   1.执行合服脚本,脚本会向db_roledata_102504库导入RoleData_*表的数据
   2.由于脚本没有后台运行,并且过程中跳板机挂死,因此必须重新执行脚本,但此时已有部分数据入库。
   3.合服脚本中是使用mysql –f参数导入数据,会忽略导入过程中产生的错误(如重复键)。
   4.最后合服脚本校验数据,发现数据出现重复记录。

  【原因分析】

  理论上,mysql会保证唯一索引上记录不会重复。
  通过mysql官方文档和源码跟踪定位原因如下:
  mysqldump默认产生的sql文件会指定unique_checks为0,目的是减少唯一键检查,增加导入速度。

  技术分享
  原因是这个参数设为0后,如果目标唯一索引的页面不在buffer中,会使用insert buffer(5.5后增强为change buffer)来实现延时写,从而不进行唯一性检查,导致重复键。
  详见函数btr_cur_search_to_nth_level:

  技术分享


  【问题方案】

  这个问题的关键是mysqldump默认启动了unique_checks=0,并且该行为是不可预知的,有可能允许重复键的出现。

  因此,这个问题的规避方法如下:
  1.  不重复导入数据,或重复前先清理数据。另外,脚本应后台运行。
  2.  尽量不要使用mysql –f导入数据
  3.  更根本的手段是禁用mysqldump默认unique_checks=0的行为。而官方的mysqldump只有通过指定--tab参数才不启动该特性。

 

-T, --tab=name      Create tab-separated textfile for each table to given
                      path. (Create .sql and .txt files.) NOTE: This only works
                      if mysqldump is run on the same machine as the mysqld
                      server.

  
    但是,这个会导致schema和数据文件分开,可能并不适用所有情况。
 
  另外一种是修改mysqldump的实现,通过参数控制该行为,并默认关闭,目前互娱DBA团队便是采用这种策略。

腾讯游戏10大经典案例(一):唯一索引上的重复键

原文:http://blog.csdn.net/dba_waterbin/article/details/44544473

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!