![](/img/trans.png)
[英]Spark cassandra connector doesn't work in Standalone Spark cluster
[英]riak spark connector doesn't work
我的Riak-Spark連接器不起作用。
我可以通過以下方式啟動Spark:
/opt/spark/bin/spark-shell \
--jars com.fasterxml.jackson.module_jackson-module-scala_2.11-2.4.4.jar \
--conf spark.riak.connection.host=127.0.0.1:8087 \
--packages com.basho.riak:spark-riak-connector_2.11:1.6.3
但是當我跑步時:
import com.basho.riak.spark._
val data = Array(1, 2, 3, 4, 5)
val testRDD = sc.parallelize(data)
我得到了錯誤:
scala> import com.basho.riak.spark._
scala> val data = Array(1, 2, 3, 4, 5)
data: Array[Int] = Array(1, 2, 3, 4, 5)
scala> val testRDD = sc.parallelize(data)
java.lang.VerifyError: class com.fasterxml.jackson.module.scala.ser.ScalaIteratorSerializer overrides final method withResolved.(Lcom/fasterxml/jackson/databind/BeanProperty;Lcom/fasterxml/jackson/databind/jsontype...
誰能幫助您安裝和使用此連接器???
預先感謝,J
我認為我設法清潔了罐子,現在看來可以通過了。 還是Tks。 Ĵ
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.