繁体   English   中英

如何从 Pyspark 中的 DataFrame 中获取这种子集?

[英]How to get this kind of subset from a DataFrame in Pyspark?

比如我有下面的DataFrame

+-----+----+------+
| idx | id | type |
+-----+----+------+
|   0 | 10 | a    |
|   1 | 10 | b    |
|   2 | 20 | b    |
|   3 | 30 | a    |
+-----+----+------+

我想要通过以下顺序步骤获得这样的子集:

  1. 获取type a 的所有id
    • 过滤后的id1030
  2. 获取id与上面相同的所有行
    • 0 , 13被选中

结果子集 DataFrame 是:

+-----+----+------+
| idx | id | type |
+-----+----+------+
|   0 | 10 | a    |
|   1 | 10 | b    |
|   3 | 30 | a    |
+-----+----+------+

如何在pyspark中实现这一点? 提前致谢。


另一个后续问题,如何实现以下。

如果步骤更改为:

  1. 获取id与上面不同的所有行
    • 2行被选中,因为只有这一行的id不是1030

生成的 DataFrame 应该是:

+-----+----+------+
| idx | id | type |
+-----+----+------+
|   2 | 20 | b    |
+-----+----+------+

您可以使用过滤器和连接操作。 1.

filterDF = dataDF.filter(dataDF.type == "a")
joinedDS = dataDF.join(filterDF, on="id")

对于第 2 点,您可以使用 left_anti 加入

joinedDS1 =  dataDF.join(joinedDS, on="id", how='left_anti')

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM