首页 > 其他 > 详细

解决Spark filter过滤条件中使用>=或<=时不识别的问题

时间:2019-01-16 17:50:40      阅读:557      评论:0      收藏:0      [点我收藏+]

一.场景

1     val jldxx_zxzq = jldxx_with_dddf
2       .withColumn("ZXZQ", zxzq(col("CBZQ")))
3       .filter(row => row.getAs("ZXZQ")!= "") // 过滤掉异常数据
4       // 如果存在,过滤掉抄表日期不在当前执行周期内的数据
5       .filter(row => row.getAs("CBRQ") >= row.getAs("ZXZQ").split("_")(0) &&
6         row.getAs("CBRQ") <= row.getAs("ZXZQ").split("_")(1))

二.异常信息

  技术分享图片

三.原因

  是因为使用getAs函数获取某列的数据时没有指明具体的类型,导致无法判断是否支持"<="或 ">="这类的运算符,因而会报错!

三.解决方案

  使用getAs时指明具体的类型!

  代码如下:

1 val jldxx_zxzq = jldxx_with_dddf
2       .withColumn("ZXZQ", zxzq(col("CBZQ")))
3       .filter(row => row.getAs("ZXZQ")!= "") // 过滤掉异常数据
4       // 如果存在,过滤掉抄表日期不在当前执行周期内的数据
5       .filter(row => row.getAs[String]("CBRQ") >= row.getAs[String]("ZXZQ").split("_")(0) &&
6         row.getAs[String]("CBRQ") <= row.getAs[String]("ZXZQ").split("_")(1))

 

解决Spark filter过滤条件中使用>=或<=时不识别的问题

原文:https://www.cnblogs.com/yszd/p/10278242.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!