[英]How to validate date format in a dataframe column in spark scala
我有一个包含一个 DateTime 列和许多其他列的数据框。
我想要做的就是解析这个 DateTime 列值并检查格式是否为"yyyy-MM-dd HH:mm:ss"
。 如果是这样,那么我希望将这些有效记录放在一个数据框中。
如果 DateTime 列包含格式"yyyy-MM-dd HH:mm:ss"
以外的任何值。 我想要其他数据框中的那些无效记录。
谢谢。
您可以使用filter()
获取数据框中的valid/invalid
记录。 从 Scala 的角度来看,此代码可以改进。
val DATE_TIME_FORMAT = "yyyy-MM-dd HH:mm:ss"
def validateDf(row: Row): Boolean = try {
//assume row.getString(1) with give Datetime string
java.time.LocalDateTime.parse(row.getString(1), java.time.format.DateTimeFormatter.ofPattern(DATE_TIME_FORMAT))
true
} catch {
case ex: java.time.format.DateTimeParseException => {
// Handle exception if you want
false
}
}
val session = SparkSession.builder
.appName("Validate Dataframe")
.getOrCreate
val df = session. .... //Read from any datasource
import session.implicits._ //implicits provide except() on df
val validDf = df.filter(validateDf(_))
val inValidDf = df.except(validDf)
在这里,我们定义了一个函数来检查String
是否与您的格式要求兼容,并将列表划分为兼容/非部分。 类型以完整的包名称显示,但您当然应该使用import
语句。
val fmt = "yyyy-MM-dd HH:mm:ss"
val df = java.time.format.DateTimeFormatter.ofPattern(fmt)
def isCompatible(s: String) = try {
java.time.LocalDateTime.parse(s, df)
true
} catch {
case e: java.time.format.DateTimeParseException => false
}
val dts = Seq("2016-11-07 15:16:17", "2016-11-07 24:25:26")
val yesNo = dts.partition { s => isCompatible(s) }
println(yesNo)
使用option("dateFormat", "MM/dd/yyyy")验证数据框中的日期字段。它将丢弃无效行。
val df=spark.read.format("csv").option("header", "false").
option("dateFormat", "MM/dd/yyyy").
schema(schema).load("D:/cca175/data/emp.csv")
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.