简体   繁体   English

Spark Scala外壳中的Parallelize集合

[英]Parallelize collection in spark scala shell

I trying to parallelize the tuple and getting error below. 我试图并行化元组并在下面出现错误。 Please let me know that is the error in below syntax 请让我知道这是以下语法中的错误 在此处输入图片说明

Thank you 谢谢

Method parallelize need a Seq. 方法并行化需要一个Seq。 Each item in the seq will be one record. 序列中的每一项将是一个记录。

def parallelize[T](seq: Seq[T], 
  numSlices: Int = defaultParallelism)
  (implicit arg0: ClassTag[T]): RDD[T]

In your example, you need add a Seq to wrap the Tuple, and in this case the RDD only has ONE record 在您的示例中,您需要添加一个Seq来包装元组,在这种情况下,RDD仅具有一个记录

scala> val rdd = sc.parallelize(Seq(("100", List("5", "-4", "2", "NA", "-1"))))
rdd: org.apache.spark.rdd.RDD[(String, List[String])] = ParallelCollectionRDD[2] at parallelize at <console>:24

scala> rdd.count
res4: Long = 1

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM