[英]how to read very big table from clickhouse to write it to hdfs using spark
請告訴我,如何切割表(clickhouse)以將其寫入 hdfs 表很大,超過 3000 億行。 我正在使用火花(Scala)。 我嘗試了 select 期間(一個月),它沒有用,我收到錯誤: Caused by: java.io.EOFException: reached end of stream after reading 1572 bytes; 預計 23242 字節
您使用的 jdbc 驅動程序似乎已 2 年未更新,可能不再與最新的 ClickHouse 版本兼容。 我建議嘗試官方支持的 ClickHouse 驅動程序。
<groupId>com.clickhouse</groupId>
<artifactId>clickhouse-jdbc</artifactId>
<version>0.3.2-patch9</version>
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.