[英]Using Pyspark to Copy Data from Spark Data frame to Tera data Table via JDBC
[英]How to write to a Spark SQL table from a Panda data frame using PySpark?
使用pandas.DataFrame.to_sql()方法,您可以将数据框的结果写出到数据库中。 在标准RDBMS的上下文中,这可以正常工作。 但是如何通过PySpark在Spark SQL中使用它? 我需要此方法的连接参数-那可以是什么?
谢谢,马特
SparkSQL与连接到SQL引擎的to_sql()无关。 如果sc是您的SparkContext
import pandas as pd
df = pd.DataFrame({'Name':['Tom','Major','Pete'], 'Age':[23,45,30]})
from pyspark import SQLContext
sqlc = SQLContext(sc)
spark_df = sqlc.createDataFrame(df)
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.