[英]Library Dependencies bundled together to create jar file is not present in the jar file using sbt-assembly
我在 sbt.build 文件中有多个库依赖项。 我正在使用 sbt-assembly 创建最终的 jar 文件,因此它包含 jar 本身中的所有依赖库。
但是使用jar tvf jarname.jar
,我无法在那里找到所有库。
我需要它将所有库捆绑在 jar 中,并使用spark-shell --jar jarpath
将其提供给spark-shell
,然后使用导入命令使用那里的库。
这样做是因为我无法使用spark-shell --packages
命令将包直接导入到 spark-shell。
预期:将 jar 文件添加到 spark-shell,然后导入 jar 中应该存在的所有库
在这里找到解决方案:
我的一些依赖项包括“提供”标签,因此它没有被包含在 fat jar 中。
libraryDependencies += "org.apache.flink" %% "flink-table-planner" % flinkVersion % "provided"
查看 sbt-assembly 插件
addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.15.0")
sbt 组装
会给你一个肥罐
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.