[英]Is it possible to run hive on Spark in the Eclipse IDE?
我一直在尝试使用Apache Spark Framework开发Spark程序。
我想在没有任何群集的情况下实例化HiveContext
。
是否可以使用HiveContext
并通过Eclipse Scala IDE在本地运行它而不使用任何集群?
有可能吗? 当然...(重点已添加)
要使用
HiveContext
, 您不需要现有的Hive设置 ,并且SQLContext
可用的所有数据源仍然可用。
但是,您需要编译一些其他代码。
HiveContext
仅单独包装,以避免在默认的Spark版本中包含所有Hive的依赖项。 如果这些依赖性对于您的应用程序来说不是问题,那么建议使用HiveContext
但是,如果您只是在没有任何集群的情况下编写Spark,则没有什么可以让您使用Spark 1.x,而应该使用Spark 2.x,它具有一个SparkSession
作为与SQL相关的事物的入口点。
Eclipse IDE无关紧要。 您也可以使用IntelliJ ...或不使用IDE,并spark-submit
任何包含Spark代码的JAR文件。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.