繁体   English   中英

Spark Scala外壳中的Parallelize集合

[英]Parallelize collection in spark scala shell

我试图并行化元组并在下面出现错误。 请让我知道这是以下语法中的错误 在此处输入图片说明

谢谢

方法并行化需要一个Seq。 序列中的每一项将是一个记录。

def parallelize[T](seq: Seq[T], 
  numSlices: Int = defaultParallelism)
  (implicit arg0: ClassTag[T]): RDD[T]

在您的示例中,您需要添加一个Seq来包装元组,在这种情况下,RDD仅具有一个记录

scala> val rdd = sc.parallelize(Seq(("100", List("5", "-4", "2", "NA", "-1"))))
rdd: org.apache.spark.rdd.RDD[(String, List[String])] = ParallelCollectionRDD[2] at parallelize at <console>:24

scala> rdd.count
res4: Long = 1

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM