簡體   English   中英

線程“主” org.apache.spark.SparkException中的異常:任務不可序列化

[英]Exception in thread “main” org.apache.spark.SparkException: Task not serializable"

我運行以下代碼時遇到上述錯誤。 我觀察到有一些可序列化的問題,但我無法准確地找到。 誰能解釋一下我該怎么辦。 提前致謝。

 enter code here 



    def checkforType(json:String):String={
            val  parsedjson = parse(json)
               val res=(parsedjson \\ "Head" \\ "Type" ).extract[String]
               (res)      
           }
    val dstream = KafkaUtils.createStream(ssc, zkQuorum, group, Map("topic" -> 1)).map(_._2)
           val pType = dstream.map(checkforType)
           pType.map(rdd => {
           val pkt= rdd.toString()
          if(pkt.equals("P300")) {

          val t300=dstream.map(par300)
           t300.print()
         }else if(pkt.equals("P30")) {
            val t30=dstream.map(par30)
            t30.print()        
         }else if(pkt.equals("P6")) {
            val t6=dstream.map(par6)
            t6.print()        
         }
        })

這主要發生在將對象傳遞給轉換並且該對象不可序列化時。

我在此找到了一個有趣的帖子: https : //jaceklaskowski.gitbooks.io/mastering-apache-spark/content/spark-tips-and-tricks-sparkexception-task-not-serializable.html

也許這可以解決您的問題。 謝謝 !

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM