簡體   English   中英

Dbeaver異常:數據源無效

[英]Dbeaver Exception: Data Source was invalid

我正在嘗試使用Dbeaver並通過Spark Hive處理數據。 連接穩定,因為以下命令有效:

select * from database.table limit 100

但是,一旦我與簡單的提取查詢不同,我就會得到一個例外。 例如,運行查詢

select count(*) from database.table limit 100

結果除外:

SQL錯誤[2] [08S01]:org.apache.hive.service.cli.HiveSQLException:處理語句時出錯:FAILED:執行錯誤,從org.apache.hadoop.hive.ql.exec.tez.TezTask返回代碼2 。 頂點失敗,vertexName =地圖1,頂點ID = vertex_1526294345914_23590_12_00,診斷信息= [頂點頂點_1526294345914_23590_12_00 [地圖1]被殺死/失敗,原因是:ROOT_INPUT_INIT_FAILURE,頂點輸入:初始化初始化失敗,頂點= vertex_1_52612345.23。 emr.hadoop.fs.shaded.com.amazonaws.services.s3.model.AmazonS3Exception:錯誤的請求(服務:Amazon S3;狀態代碼:400;錯誤代碼:400錯誤的請求;請求ID:95BFFF20D13AECDA),S3擴展請求ID :fSbzZDf / Xi0b + CL99c5DKi8GYrJ7TQXj5 / WWGCiCpGa6JU5SGeoxA4lunoxPCNBJ2MPA3Hxh14M =

有人可以幫我嗎?

400 /錯誤請求是S3 / AWS通用的“不喜歡您的有效負載/請求/身份驗證”響應。 ASF S3A文檔中有一些詳細信息,但這是針對ASF連接器的,而不是針對亞馬遜連接器的(從堆棧跟蹤中查找的)。 經過v4認證的存儲桶的端點錯誤通常是問題1,在那之后……誰知道呢?

  1. 首先嘗試做一些基本的hadoop fs -ls s3://bucket/path操作。
  2. 您可以嘗試針對它運行cloudstore診斷 這是我調試客戶端的第一個電話。 雖然它沒有明確的EMR-s3-connector知道,所以它不會詳細查看憑據

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM