[英]Passing jdbc connection to spark read
我有一個SQL腳本,該腳本創建僅對該會話有效的臨時表。 現在,在運行腳本之后,我試圖通過spark從表中讀取數據,然后對其進行處理。 下面是我有火花讀取代碼的代碼。
sparkSession.read().format("jdbc").option("url",
jdbcURL).option("dbtable", tableOrQuery).option("user",
userName).option("password", password)
.option("driver", driverName).load();
現在,我需要傳遞我創建的jdbc連接,以便spark可以在同一會話中讀取數據。 這可能嗎 ?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.