[英]sparklyr::spark_write_jdbc Does not Accept Spark Dataframe?
我在 Databricks 中工作,嘗試使用 sparklyr 函數 spark_write_jdbc 將數據幀寫入 SQL Server 表。 服務器名稱/驅動程序等正確且有效,因為我在代碼的前面成功使用了 sparklyr::spark_read_jdbc()。
根據文檔( 這里),spark_write_jdbc 應該接受一個 Spark 數據幀。
我使用 SparkR::createDataFrame() 將我正在使用的數據幀轉換為 Spark 數據幀。
這是相關的代碼:
events_long_test <- SparkR::createDataFrame(events_long, schema = NULL, samplingRatio = 1, numPartitions = NULL)
sparklyr::spark_write_jdbc(events_long_test,
name ="who_status_long_test" ,
options = list(url = url,
user = user,
driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver",
password = pw,
dbtable = "who_status_long_test"))
但是,當我運行它時,它給了我以下錯誤:
UseMethod 中的錯誤(“spark_write_jdbc”):UseMethod 中的錯誤(“spark_write_jdbc”):“spark_write_jdbc”沒有適用的方法應用於“SparkDataFrame”類的對象
我四處搜索,找不到其他人詢問此錯誤。 為什么它會說這個函數不能與 Spark Dataframe 一起使用,當文檔說它可以時?
任何幫助表示贊賞。
events_long 中有什么? 語法正確,並確保選項中的連接屬性正確。 確保 events_long_test 是一個火花數據幀而不是一個表。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.