繁体   English   中英

PySpark:使用选定的列或分区优化从 Delta 读取/加载

[英]PySpark : Optimize read/load from Delta using selected columns or partitions

我正在尝试将来自 Delta 的数据加载到 pyspark dataframe 中。

path_to_data = 's3://mybucket/daily_data/'
df = spark.read.format("delta").load(path_to_data)

现在基础数据按日期划分为

s3://mybucket/daily_data/
    dt=2020-06-12
    dt=2020-06-13
    ...
    dt=2020-06-22

有没有办法将读取优化为 Dataframe,给出:

  1. 只需要特定的日期范围
  2. 只需要列的子集

目前,我尝试过的方法是:

df.registerTempTable("my_table")
new_df = spark.sql("select col1,col2 from my_table where dt_col > '2020-06-20' ")
# dt_col is column in dataframe of timestamp dtype.

在上面的 state 中,Spark 是否需要加载整个数据,根据日期范围过滤数据,然后过滤所需的列? 是否可以在 pyspark 读取中进行任何优化,以加载数据,因为它已经分区?

在线的东西:

df = spark.read.format("delta").load(path_to_data,cols_to_read=['col1','col2'])
or 
df = spark.read.format("delta").load(path_to_data,partitions=[...])

在您的情况下,不需要额外的步骤。 Spark 将负责优化。 由于当您尝试使用分区列dt作为过滤条件查询数据集时,您已经根据列dt对数据集进行了分区。 Spark 仅从源数据集中加载与过滤条件匹配的数据子集,在您的情况下为dt > '2020-06-20'

Spark 在内部进行基于优化的分区修剪。

要做到这一点没有 SQL..

from pyspark.sql import functions as F

df = spark.read.format("delta").load(path_to_data).filter(F.col("dt_col") > F.lit('2020-06-20'))

虽然对于这个例子,你可能需要做一些比较日期的工作。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM