簡體   English   中英

在 python 的 spark df 中斷言特定單元格的值

[英]Assert a value of a specific cell in spark df in python

在 pyspark 數據幀中斷言特定單元格值的最簡單方法是什么?

+---------+--------+
|firstname|lastname|
+---------+--------+
|James    |Smith   |
|Anna     | null   |
|Julia    |Williams|
|Maria    |Jones   |
|Jen      |Brown   |
|Mike     |Williams|
+---------+--------+

我想在此數據幀的各自行/列中斷言值 null 和“Jen”的存在。

所以我可以使用類似的東西:

assert df['firstname'][4] == "Jen"
assert df['lastname'][1] == None

根據我的發現,使用collect()是一種方式(相當於 Pandas df 中的 iloc() ):

assert df.collect()[4]['firstname'] == 'Jen'
assert df.collect()[1]['lastname'] is None

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM