[英]Assert a value of a specific cell in spark df in python
在 pyspark 數據幀中斷言特定單元格值的最簡單方法是什么?
+---------+--------+
|firstname|lastname|
+---------+--------+
|James |Smith |
|Anna | null |
|Julia |Williams|
|Maria |Jones |
|Jen |Brown |
|Mike |Williams|
+---------+--------+
我想在此數據幀的各自行/列中斷言值 null 和“Jen”的存在。
所以我可以使用類似的東西:
assert df['firstname'][4] == "Jen"
assert df['lastname'][1] == None
根據我的發現,使用collect()
是一種方式(相當於 Pandas df 中的 iloc() ):
assert df.collect()[4]['firstname'] == 'Jen'
assert df.collect()[1]['lastname'] is None
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.