[英]Can we use spark.sql on any other database tables other than Hive tables?
Currently our databases are hosted in other databases.目前我们的数据库托管在其他数据库中。 We are thinking to execute the process in SPARK by using JDBC connectors.
我们正在考虑使用 JDBC 连接器在 SPARK 中执行该过程。 Is it possible to use SPARK.SQL statements after we connect the datasource or do we have to load the data to hive to use spark.sql query?
连接数据源后是否可以使用 SPARK.SQL 语句,还是必须将数据加载到 hive 才能使用 spark.sql 查询?
Yes, on Spark tables.是的,在 Spark 表上。
With push-down you can use against JDBC sources and HBASE etc. but then you may as well for JDBC sources use the SQL there for functionality and it runs on that hardware.通过下推,您可以针对 JDBC 源和 HBASE 等使用,但是您也可以针对 JDBC 源使用 SQL 来实现该功能。 Mostly you bring lower volume of data in to combine in Spark with Big Data sources and write less data to JDBC RDBMS's.
大多数情况下,您将较少量的数据引入 Spark 与大数据源相结合,并将较少的数据写入 JDBC RDBMS。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.