![](/img/trans.png)
[英]How to apply filter on a column (with datatype array (of strings)) on a PySpark dataframe?
[英]How to filter dataframe on basis of column datatype
假设我有以下数据框,并且想根据列值的数据类型过滤/分离数据框,
dataframe =
Name | No_of_days
A | 23
B | 34
C | 'not applicable'
D | 'present'
E | 12
F | 'something'
expected1 =
Name | No_of_days
A | 23
B | 34
E | 12
expected2 =
Name | No_of_days
C | 'not applicable'
D | 'present'
F | 'something'
我想按列(No_of_days)过滤数据帧,其中数据类型是整数和字符串。
将to_numeric
与errors='coerce'
一起使用 - 因为不是数字会生成缺失值,因此可以通过Series.isna
进行测试并在boolean indexing
中过滤:
m = pd.to_numeric(df['No_of_days'], errors='coerce').isna()
expected1 = df[m]
expected2 = df[~m]
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.