[英]How to use the sql server 2012 jdbc jar in spark
我有一個spark azure hd洞察集群,我想將sparksql連接到另一個sql服務器盒。
我可以將它與FREETDS和pymssql連接,但據我了解,我應該通過jdbc驅動程序將其連接到spark sql
這是根據Spark中的此文檔
http://spark.apache.org/docs/latest/sql-programming-guide.html#jdbc-to-other-databases
現在我的主目錄中有Jar,如果要使用此Jar,請在文檔中說
SPARK_CLASSPATH=postgresql-9.3-1102-jdbc41.jar bin/spark-shell
我曾經用作
SPARK_CLASSPATH=./sqljdbc_4.2/enu/sqljdbc42.jar ./bin/spark-shell
但它顯示
-bash: ./bin/spark-shell: No such file or directory
但是,如果這是一個火花集群,並且如果我輸入spark-shell,那么我總會得到該shell。 請協助
嘗試這個:
bin/spark-shell --driver-class-path /home/XXX/sqljdbc42.jar
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.