[英]Pyspark: Convert pyspark.sql.row into Dataframe
我在pyspark中有以下一行。 我想基本上将其与pandas数据框合并。
Row(Banked_Date_Calc__c=0 NaN
Name: Banked_Date_Calc__c, dtype: float64, CloseDate=0 2018-06-13T00:00:00.000Z
Name: CloseDate, dtype: object, CourseGEV__c=0 2990
Name: CourseGEV__c, dtype: int64, Id=0 0060h0000169NWLAA2
Name: Id, dtype: object, OwnerId=0 0050L000008Z30mQAC
Name: OwnerId, dtype: object, timestamp=0 2018-06-13 17:02:30.017566
Name: timestamp, dtype: datetime64[ns])
现在我收到错误消息,将上面的行放在pd.DataFrame(msg)中时,DataFrame没有正确调用
msg = Row(.....) #Row is from above
pd.DataFrame(msg)
您不能将pyspark行直接传递给Pandas Dataframe构造函数。 您可以使用中介字典来实现。
row_d = Row(...).asDict()
pd_df = pd.DataFrame.from_dict(row_d)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.