繁体   English   中英

如何计算 Spark Structured Streaming 中的滞后差异?

[英]How to calculate lag difference in Spark Structured Streaming?

我正在编写一个 Spark Structured Streaming 程序。 我需要创建一个具有滞后差异的附加列。

为了重现我的问题,我提供了代码片段。 此代码使用存储在data文件夹中的data.json文件:

[
  {"id": 77,"type": "person","timestamp": 1532609003},
  {"id": 77,"type": "person","timestamp": 1532609005},
  {"id": 78,"type": "crane","timestamp": 1532609005}
]

代码:

from pyspark.sql import SparkSession
import pyspark.sql.functions as func
from pyspark.sql.window import Window
from pyspark.sql.types import *

spark = SparkSession \
    .builder \
    .appName("Test") \
    .master("local[2]") \
    .getOrCreate()

schema = StructType([
    StructField("id", IntegerType()),
    StructField("type", StringType()),
    StructField("timestamp", LongType())
])

ds = spark \
    .readStream \
    .format("json") \
    .schema(schema) \
    .load("data/")

diff_window = Window.partitionBy("id").orderBy("timestamp")
ds = ds.withColumn("prev_timestamp", func.lag(ds.timestamp).over(diff_window))

query = ds \
    .writeStream \
    .format('console') \
    .start()

query.awaitTermination()

我收到此错误:

pyspark.sql.utils.AnalysisException:流式数据帧/数据集不支持 u'基于时间的窗口;\\nWindow [lag(timestamp#71L, 1, null) windowspecdefinition(host_id#68, timestamp#71L ASC NULLS首先,在 1 个前面和 1 个前面之间的行)作为 prev_timestamp#129L]

pyspark.sql.utils.AnalysisException:流式数据帧/数据集不支持 u'Non-time-based windows

这意味着您的窗口应该基于timestamp列。 因此,如果您每秒有一个数据点,并且您制作了一个30s stride10s的窗口,则结果窗口将创建一个新的window列,其中startend列将包含相差30s时间戳。

您应该以这种方式使用窗口:

words = words.withColumn('date_time', F.col('date_time').cast('timestamp'))

w = F.window('date_time', '30 seconds', '10 seconds')
words = words \
   .withWatermark('date_format', '1 minutes') \
   .groupBy(w).agg(F.mean('value'))

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM