[英]Apache Spark: java.lang.NoSuchMethodError .rddToPairRDDFunctions
[英]java.lang.NoSuchMethodError: org.apache.spark.storage.BlockManager
当我连接到运动流时,出现以下错误消息。
java.lang.NoSuchMethodError: org.apache.spark.storage.BlockManager.get(Lorg/apache/spark/storage/BlockId;)Lscala/Option;
at org.apache.spark.streaming.kinesis.KinesisBackedBlockRDD.getBlockFromBlockManager$1(KinesisBackedBlockRDD.scala:104)
我的火花流代码是
sc = SparkContext(appName="PythonStreamingTest")
ssc = StreamingContext(sc, 10)
dstream = KinesisUtils.createStream(
ssc, "PythonStreamingTest", "questions", "https://kinesis.us-west-2.amazonaws.com", "us-west-2", InitialPositionInStream.TRIM_HORIZON, 1)
dstream.foreachRDD(stream_rdd)
def stream_rdd(rdd):
if not rdd.isEmpty():
return rdd.foreach(classify)
def classify(ele):
if ele!="":
print ele
最初,该流变为空白,因为需要一段时间才能连接到Kinesis流。 但是突然之间,它破坏了代码。 剩下的痕迹是,
17/04/02 17:52:00 ERROR Executor: Exception in task 0.0 in stage 1.0 (TID 1)
java.lang.NoSuchMethodError: org.apache.spark.storage.BlockManager.get(Lorg/apache/spark/storage/BlockId;)Lscala/Option;
at org.apache.spark.streaming.kinesis.KinesisBackedBlockRDD.getBlockFromBlockManager$1(KinesisBackedBlockRDD.scala:104)
at org.apache.spark.streaming.kinesis.KinesisBackedBlockRDD.compute(KinesisBackedBlockRDD.scala:117)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
at org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:63)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
at org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:63)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:323)
at org.apache.spark.rdd.RDD.iterator(RDD.scala:287)
at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:87)
at org.apache.spark.scheduler.Task.run(Task.scala:99)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:282)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
我使用以下命令提交工作,
spark-submit --jars spark-streaming-kinesis-asl-assembly_2.11-2.0.0.jar --driver-memory 5g Question_Type_Classification_testing_purpose/classifier_streaming.py
我在本地计算机上运行代码。 因此,如果我要提供5g的内存,则执行程序应该可以正常工作。 相同的代码适用于Spark 1.6。 最近,我更改为Spark 2.1,但无法运行此代码。 我也更新了我的运动罐和Py4j。
我通过编写Kinesis使用者来测试我的代码,它可以完美地完成流。
谁能让我知道可能是什么问题? 空流是否会引起问题? 如果是,为什么在使用Spark流时会出现空流? 任何帮助都非常感谢。
spark-streaming-kinesis-asl
是Spark自己的内部库,并且正在使用Spark内部API(例如BlockManager.get)。 BlockManager.get
的方法签名已在https://github.com/apache/spark/commit/29cfab3f1524c5690be675d24dda0a9a1806d6ff#diff-2b643ea78c1add0381754b1f47eec132L605中进行了更改,因此如果Spark版本为> = 2.0.1,但spark-streaming-kinesis-asl
,您将看到NoSuchMethodError
spark-streaming-kinesis-asl
版本小于2.0.1。
通常,由于Spark不能保证不会在发行版之间破坏内部API,因此必须将spark-streaming-kinesis-asl
与相同版本的Spark配合使用。
对于最新的Spark版本,由于潜在的许可证问题[1],已删除了kinesis asl组装罐,因此您可能找不到组装罐。 但是,您可以使用--packages org.apache.spark:spark-streaming-kinesis-asl_2.11:2.1.0
将spark-streaming-kinesis-asl
及其依赖项自动添加到类路径中,而不用构建程序集jar由你自己。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.