[英]Not equal function not working in PySpark inner join
我有两个数据集,我想加入并找出df1 中有多少数据与 PySpark 中 df2 中的任何数据不匹配
我试过这个代码:
join = df1.join(df2, df1.studyid != df2.studyid, how='inner')
但是这段代码不能正常工作。
请帮我解决这个问题。 有关更多信息,请在聊天中ping我。
谢谢
使用leftanti
:
join = df1.join(df2, df1.studyid == df2.studyid, how='leftanti')
反连接从左关系返回与右关系不匹配的值。 它也被称为左反连接。
更多信息: https : //spark.apache.org/docs/latest/sql-ref-syntax-qry-select-join.html
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.