简体   繁体   English

Hive在Spark StackOverFlow错误

[英]Hive on Spark StackOverFlow Error

i am running Hive on Spark on CDH 5.10. 我正在CDH 5.10上的Spark上运行Hive。 and i get the below error. 我得到以下错误。 I have checked all the logs of YARN , Hive and Spark, but there is no useful information apart from the below error: 我已经检查了YARN,Hive和Spark的所有日志,但是除了以下错误之外,没有有用的信息:

Job aborted due to stage failure: Task 0 in stage 0.0 failed 4 times, most recent failure: Lost task 0.3 in stage 0.0 (TID 4, xxx.local, executor 1): java.lang.StackOverflowError 作业由于阶段失败而中止:阶段0中的任务0失败4次,最近一次失败:阶段0.0中的任务0.3丢失(TID 4,xxx.local,执行者1):java.lang.StackOverflowError

Tyr to set the following parameters before executing your query: 在执行查询之前,请先设置以下参数:

set spark.executor.extraJavaOptions=-Xss16m;
set hive.execution.engine=spark;

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM