簡體   English   中英

sparklyr::spark_write_jdbc 不接受 Spark 數據幀?

[英]sparklyr::spark_write_jdbc Does not Accept Spark Dataframe?

我在 Databricks 中工作,嘗試使用 sparklyr 函數 spark_write_jdbc 將數據幀寫入 SQL Server 表。 服務器名稱/驅動程序等正確且有效,因為我在代碼的前面成功使用了 sparklyr::spark_read_jdbc()。

根據文檔( 這里),spark_write_jdbc 應該接受一個 Spark 數據幀。

我使用 SparkR::createDataFrame() 將我正在使用的數據幀轉換為 Spark 數據幀。

這是相關的代碼:

events_long_test <- SparkR::createDataFrame(events_long, schema = NULL, samplingRatio = 1, numPartitions = NULL)


sparklyr::spark_write_jdbc(events_long_test, 
                name ="who_status_long_test" , 
                options = list(url = url, 
                               user = user,
                               driver = "com.microsoft.sqlserver.jdbc.SQLServerDriver",
                               password = pw,
                               dbtable = "who_status_long_test"))

但是,當我運行它時,它給了我以下錯誤:

UseMethod 中的錯誤(“spark_write_jdbc”):UseMethod 中的錯誤(“spark_write_jdbc”):“spark_write_jdbc”沒有適用的方法應用於“SparkDataFrame”類的對象

我四處搜索,找不到其他人詢問此錯誤。 為什么它會說這個函數不能與 Spark Dataframe 一起使用,當文檔說它可以時?

任何幫助表示贊賞。

events_long 中有什么? 語法正確,並確保選項中的連接屬性正確。 確保 events_long_test 是一個火花數據幀而不是一個表。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM