繁体   English   中英

如何使用PySpark从Panda数据帧写入Spark SQL表?

[英]How to write to a Spark SQL table from a Panda data frame using PySpark?

使用pandas.DataFrame.to_sql()方法,您可以将数据框的结果写出到数据库中。 在标准RDBMS的上下文中,这可以正常工作。 但是如何通过PySpark在Spark SQL中使用它? 我需要此方法的连接参数-那可以是什么?

谢谢,马特

SparkSQL与连接到SQL引擎的to_sql()无关。 如果sc是您的SparkContext

import pandas as pd
df = pd.DataFrame({'Name':['Tom','Major','Pete'], 'Age':[23,45,30]})

from pyspark import SQLContext
sqlc = SQLContext(sc)

spark_df = sqlc.createDataFrame(df)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM