[英]jdbc Connection time out error while connecting spark application to a remote sql server
我有一个pyspark应用程序,它从一个远程sql服务器上获取数据,它
直到最近都工作良好,并且我已将SQL Server 2016 CTP3升级到sql
服务器2016 RC3开发人员版本,现在我无法再以相同的配置连接到数据库。 我不确定发生了什么,并尝试了所有可能的方法来解决。
错误信息 :
: com.microsoft.sqlserver.jdbc.SQLServerException: The TCP/IP connection to the host myserver.cloudapp.net, port 1433 has failed. Error: "connect timed out. Verify the connection properties. Make sure that an instance of SQL Server is running on the host and accepting TCP/IP connections at the port. Make sure that TCP connections to the port are not blocked by a firewall."
我知道为什么会发生这种情况,以及可能的原因是什么,我已经以各种可能的方式保证了应对
我的Spark应用程序驻留在Azure HDInsight Spark集群和SQL中
服务器数据库位于Windows 2012服务器中(不确定是否使
差异),尽管我能够使用相同的配置从同一群集连接到以前的Windows服务器
现在我的服务器中的netstat -a
显示了多个已建立的连接,其中本地地址是我的机器IP,端口是1433.也有很少的超时请求,但它们不在1433端口中,我认为这意味着它们不相关与我的SQL Server连接。
有没有办法我可以在这里找出问题所在,我想我已经涵盖了可能发生的所有可能原因,但是我仍然会收到此错误
经过大量的努力,我发现我的问题是云防火墙,因此,如果您使用的是Azure或AWS,请确保还要在云防火墙中打开端口1433。 希望这对某人有帮助。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.