[英]Apache Spark Dataframe - Issue with setting up a not-equal join
我有2个数据框正在执行多列联接。 第一对列进行相等比较,第二对列进行不相等比较。 代码如下:
val arule_1w = itemLHS
.join(itemRHS, itemLHS("CUST_ID") === itemRHS("CUST_ID") && itemLHS("LHS") != itemRHS("RHS")
结果数据仍然具有包含itemLHS(“ LHS”)= itemRHS(“ RHS”)的行,并且不应该使用不相等的联接。 也可能是用户错误,但我的所有研究都告诉我格式正确。 所有数据类型都是字符串值。
谢谢你的帮助!
正确的方法是=!=
不是!=
。
在语法下面使用itemLHS(“ LHS”)!== itemRHS(“ RHS”)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.