首页 > 其他 > 详细

kafka compaction 分析(基于kafka 0.10.2版本)

时间:2019-07-03 10:58:50      阅读:126      评论:0      收藏:0      [点我收藏+]
一、基本概念:
cleanableRatio:清理比率,可清理的字节大小/该log文件总的字节大小,对应代码:
val cleanableBytes = log.logSegments(firstDirtyOffset, math.max(firstDirtyOffset, firstUncleanableOffset)).map(_.size).sum val totalBytes = cleanBytes + cleanableBytes val cleanableRatio = cleanableBytes / totalBytes.toDouble
 
deleteRetentionMs: 保留时间,对应配置是log.cleaner.delete.retention.ms
二、具体流程:
主要分为以下几步:
1、从清理比率超过最小清理比率的log中选出清理比率最大的partition log,以及其清理范围;
2、构建一个offsetMap:key是record.key,value是record.offset,遍历读取1中选出log的清理范围内的record,针对一个record而言,如果该record的offset大于map中的,那么覆盖;
3、遍历清理范围内的record,根据offsetMap记录每个key的最大offset以及过期时间来判断是否要清理对应的record,也就是是否要刷到磁盘文件中,具体逻辑是:
if(record.offset < offsetMap.get(record.key)){
   该消息放弃不刷到磁盘文件中;
}else if(record.offset > offsetMap.get(record.key) ){
  if(oldSegment.lastTime < 过期时刻){
      该消息放弃不刷到磁盘文件中;
   }else{
      刷磁盘文件中保留;
  }
}
其中过期时刻=清理范围内的segment最大修改时间戳 - deleteRetentionMs
 
注:针对一个segment的清理,是读取old segment消息,判断是否保留,如果保留那么append到new segment中,最后用new segment 覆盖 old segment;
 

kafka compaction 分析(基于kafka 0.10.2版本)

原文:https://www.cnblogs.com/lordcheng/p/11124981.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!