[英]removing spaces in DataFrame using SCALA. (I have loaded CSV file into RDD then trying to remove spaces from it
我的CSV文件中包含不需要的空格和Null值的数据。 我把这个文件加载到spark RDD中,直到这里没问题。 现在我必须从此RDD中删除空格和空值。 如何做到这一点任何人都可以帮助我吗?
object Oracle {def main(args: Array[String]): Unit = {
import org.apache.spark.SparkContext
import org.apache.spark.sql.SparkSession
System.setProperty("hadoop.home.dir","D:\\hadoop\\");
val spark = SparkSession.builder().appName("Schema").master("local[*]").getOrCreate()
import spark.implicits._
import org.apache.spark.sql.functions._
val inpp = spark.read.csv("file:///C:/Users/user/Desktop/xyz.csv")
inpp.show()
val df = inpp.toDF("name")
inpp.select(
col("name"),
regexp_replace(col("name"), "\\s+$", ""),
rtrim(col("name")),
length(col("name"))
).show() }}
你可以这样做:
scala> val someDFWithName = Seq((1, "anu rag"), (2,"raj u"),(3, " ram "), (4, null), (5, "")).toDF("id", "name")
现在筛选空值或空值并应用正则表达式以删除额外空格:
scala> someDFWithName.filter(col("name") !== "").select(
| col("name"),
| regexp_replace(col("name"), " ", ""),
| length(col("name"))
| ).show()
输出将是:
+--------+-------------------------+------------+
| name|regexp_replace(name, , )|length(name)|
+--------+-------------------------+------------+
| anu rag| anurag| 7|
| raj u| raju| 5|
| ram | ram| 8|
+--------+-------------------------+------------+
谢谢。
您可以在csv阅读器中提供这些选项以修剪数据,然后过滤不相关的数据:
val df = spark.read
.format("csv")
.option("ignoreLeadingWhiteSpace", "true")
.option("ignoreTrailingWhiteSpace", "true")
.option("inferSchema", "true")
.option("header", "true")
.load("file:///C:/Users/user/Desktop/xyz.csv")
.filter(col("name").isNotNull)
.show()
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.