簡體   English   中英

在加入 Spark 數據幀時使用過濾條件:Spark/Scala

[英]Using Filter Condition While Joining Spark Dataframes: Spark/Scala

有人可以建議我如何在火花 scala 中加入 2 個數據幀時使用過濾器。我正在嘗試以下代碼。

    var name="abcd"
    var last_name="xyz"

    val df3 = df1.join(df2, df1("id") === df2("id"))
    .filter(df1("name")==='${name}').
    filter(df1("last_name")==='${last_name}')
    .drop(df1("name"))
    .drop(df2("name"))

但是出現多個錯誤。

在此處輸入圖像描述

Spark 不像 java 的 JDBC API,我們需要在 where 條件下用單引號包裹字符串。 你能簡單地嘗試使用不帶任何引號和 $ 符號的name變量嗎

    var name="abcd"
    var last_name="xyz"
    val df3 = df1.join(df2, df1("id") === df2("id"))
    .filter(df1("name")===name && df1("last_name")===last_name)
    .drop(df1("name"))
    .drop(df2("name"))

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM