[英]Netty Version Conflict with Spark + Elasticsearch Transport
[英]Best solution for version conflict in Spark program
我有一個Spark程序,需要幾個依賴項。
一個依賴:a.jar是集群a_2.8.jar
上2.8的版本,但是,我需要使用它的版本2.9, a_2.9.jar
。
每次啟動程序時,spark都會自動從集群加載a_2.9.jar
,而不是加載a_2.9.jar
,即使我已經通過--jars a_2.9.jar
提交了這個jar。
我嘗試使用spark.executor.userClassPathFirst
設置,但還有另一個問題。 在我的userClassPath中有一個“秘密”的jar文件,比如說“ b.jar
”,它不適用於集群,並且有很多依賴項,我不知道哪個jar不起作用。
總結一下:
如果我使用群集默認類路徑, a.jar
將發生沖突。
如果我使用userClassPathFirst
, b.jar
將發生沖突。 (我不知道哪個b.jar)
我希望有人可以告訴我,這里最好的解決方案是什么,以盡量減少工作。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.