繁体   English   中英

使用 Apache Spark 读写 SQL 数据库

[英]Read and write to/from SQL databases with Apache Spark

我想了解为什么在使用 Apache Spark 时我们没有明确关闭 JDBC 连接。

请参阅: https : //docs.microsoft.com/en-us/azure/sql-database/sql-database-spark-connectorhttps://spark.apache.org/docs/latest/sql-data-sources- jdbc.html

这是因为当我们这样做时

val collection = sqlContext.read.sqlDB(config)

或者

jdbcDF.write
  .format("jdbc")
   (...)
  .save()

我们并没有真正打开连接,而只是指定一个 DAG 阶段? 然后在引擎盖下 Spark 建立连接并关闭它?

没错,Spark 负责在计划执行阶段打开/关闭与关系数据源的 JDBC 连接。 这允许它保持支持多种DataSource类型所需的抽象级别。 您可以检查JdbcRelationProvider (用于读取)或JdbcUtils (用于保存)的源代码以查看该逻辑。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM