繁体   English   中英

Pyspark:将pyspark.sql.row转换为Dataframe

[英]Pyspark: Convert pyspark.sql.row into Dataframe

我在pyspark中有以下一行。 我想基本上将其与pandas数据框合并。

Row(Banked_Date_Calc__c=0   NaN
Name: Banked_Date_Calc__c, dtype: float64, CloseDate=0    2018-06-13T00:00:00.000Z
Name: CloseDate, dtype: object, CourseGEV__c=0    2990
Name: CourseGEV__c, dtype: int64, Id=0    0060h0000169NWLAA2
Name: Id, dtype: object, OwnerId=0    0050L000008Z30mQAC
Name: OwnerId, dtype: object, timestamp=0   2018-06-13 17:02:30.017566
Name: timestamp, dtype: datetime64[ns])

现在我收到错误消息,将上面的行放在pd.DataFrame(msg)中时,DataFrame没有正确调用

msg = Row(.....) #Row is from above
pd.DataFrame(msg)

您不能将pyspark行直接传递给Pandas Dataframe构造函数。 您可以使用中介字典来实现。

row_d = Row(...).asDict()
pd_df = pd.DataFrame.from_dict(row_d)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM