Spark Streaming 是微批处理。
SparkConf sparkConf = new SparkConf().setAppName("SparkStreaming").setMaster("local[*]"); JavaStreamingContext javaStreamingContext = new JavaStreamingContext(sparkConf, Durations.seconds(1000));
Durations.seconds(1000)设置的是sparkstreaming批处理的时间间隔,每个Batch Duration时间去提交一次job,如果job的处理时间超过Batch Duration,会使得job无法按时提交,随着时间推移,越来越多的作业被拖延,最后导致整个Streaming作业被阻塞,无法做到实时处理数据
这种情况
转载于:https://blog.csdn.net/qq_32635069/article/details/82286696
END
Spark Streaming的Batch Duration优化
原文:https://www.cnblogs.com/it-deepinmind/p/14276705.html