给定一个 scala 项目,该项目依赖于具有 java 多版本依赖项和目标 java 8 的库,sbt-assembly 将记录多个类似于以下内容的警告 处理这些警告并跳过 jvm 8 不需要的META_INF/versions/*的正确方法是什么? ...
给定一个 scala 项目,该项目依赖于具有 java 多版本依赖项和目标 java 8 的库,sbt-assembly 将记录多个类似于以下内容的警告 处理这些警告并跳过 jvm 8 不需要的META_INF/versions/*的正确方法是什么? ...
我Deduplicate found... error使用 SBT 构建项目时出错: 现在我考虑对所有库进行着色的选项(如此处): 所以我添加了以下阴影规则: 但是在我开始assembly时重新加载 SBT 后,我得到了与重复项相同的错误。 这里有什么问题? 附言: 更新最后,我通过设置provi ...
我是 scala / java / sbt 的新手,这是我第一次调试通过 sbt 在“scala”中运行的代码与从已编译的 jar 运行的相同代码之间的差异。 我有一些 Scala 代码,它利用 AWS Java SDK 发出一些 S3 请求。 当我使用 sbt 或 Intellij 在“Scala ...
操作系统:Ubuntu 22.10 java:openjdk 版本“19.0.1” 2022-10-18 scala:2.13.10 Apache Lucene:9.4.2 我采用了 Lucene 文档示例并将其转换为 Scala 程序: 如果我使用以下 sbt 文件: 编译给我错误: 所以我在 s ...
我正在使用 sbt assembly 为我的项目生成一个 fat jar。 然后,当尝试运行我的 jar 文件时,我在这一行得到了一个空指针: 我已经尝试添加kie.conf ,但这没有帮助。 我没有使用 maven 或 pom 文件等。我正在使用 scala sbt。 运行 drools 的最新 ...
我在 sbt.build 文件中有多个库依赖项。 我正在使用 sbt-assembly 创建最终的 jar 文件,因此它包含 jar 本身中的所有依赖库。 但是使用jar tvf jarname.jar ,我无法在那里找到所有库。 我需要它将所有库捆绑在 jar 中,并使用spark-shell - ...
我正在尝试将单个 Fat Jar 从 spark/scala 项目部署到私有 nexus 存储库。 发布工作正常,但我得到大量文件而不是单个程序集 Jar: *-组装.jar *-assembly.jar.md5 *-assembly.jar.sha1 *-javadoc.jar *-j ...
一个项目的scala源文件如何包含在sbt pack生成的目标jar中? 目前,当我的 jar 的 IDE 用户试图跳转到库中的 function 时,他们只会得到代码的反编译版本,而不是原始源代码。 但是,从工件存储库中提取的其他库具有跳转到原始源代码的能力。 提前感谢您的考虑和回复。 ...
我在用 但是,在执行sbt assembly时,我得到: 运行 java 18 ...
我正在尝试使用sbt-assembly来隐藏一些依赖项。 如sbt-assembly github 自述文件中所述,我已经为项目X shaded并发布了 jar。 当我尝试在项目Y中使用已发布的 jar 时,我在runtime遇到了NoSuchMethodError错误。 以下是我用于项目X的阴影 ...
我正在使用最新sbt.version=1.5.7 。 我的assembly.sbt只不过是addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "1.1.0") 。 由于需求需要,我必须处理子项目。 我正面临与provided的 scope 类似的Spark依 ...
在 scala build.sbt 中寻找解决方案,以排除路径下的类以获取除三个工件之外的所有依赖项。 类似于 pom.xml 在这里所做的。 ...
当我运行sbt assembly时,测试不会运行。 如何在运行装配任务之前运行测试? ...
我有一个项目,我正在尝试使用 sbt-assembly 插件创建一个胖 jar。 当我尝试使用java -jar命令从 jar 运行我的主类时,我收到错误消息: Error: Could not find or load main class com.gordon.timeshare.apps.Ti ...
我正在尝试使用sbt assembly为无服务器构建应用程序。 如果我使用sbt assembly serverless invoke local --function func运行它,它可以工作,但是如果我使用 serverless serverless offline start运行它,它会抛出 ...
我的 build.sbt 看起来像这样: libraryDependencies ++= Seq( "org.apache.hadoop" % "hadoop-aws" % sparkVersion % Provided, "org.apache.spark" %% "spark-core" ...
我创建了一个 Scala 项目,我将其捆绑到 Jar 文件中并将该文件部署在 Azure 上的 Databricks 中。 我正在使用创建单个 Jar 文件的程序集插件。 作为构建的一部分,我需要从 Scala Case 类创建模式 JSON 文件,并且在运行时我会引用 json 文件来创建模式。 ...
当我在某些模块上执行 publishLocal 时,它可以工作,但是对于一个模块,它会生成只有META-INF/Manifest.MF空 jar。 所有模块都有一个标准的文件夹结构src>main>scala 。 唯一的区别是这个模块没有主类,只是一个包含许多其他模块使用的 util 类 ...
我想为子项目创建一个胖程序集 jar,而不必为其他项目或整个全局项目生成 jars。 我怎样才能做到这一点? 从https://github.com/sbt/sbt-assembly我看到我可以为每个子项目添加 Main Class 或 jars 的名称,但无法运行它。 程序集运行的是主项目,而不 ...
我有一个项目在我当地的Spark Scala上运行。 我能够毫无问题地成功构建它。 我在将该项目复制到本地本身的git文件夹时遇到问题。 它说某些文件名太长。 所以我不得不跳过这些文件来完成复制任务。 好吧,这不是我面临的实际问题。 在我运行时将项目目录复制到我的本地 git 文件夹后: 我不断收 ...