[英]how to connect to mongodb Atlas from databricks cluster using pyspark
如何使用 pyspark 从 databricks 集群连接到 mongodb Atlas
这是我在笔记本中的简单代码
from pyspark.sql import SparkSession
spark = SparkSession \
.builder \
.appName("myApp") \
.config("spark.mongodb.input.uri", "mongodb+srv://admin:<password>@mongocluster.fxilr.mongodb.net/TestDatabase.Events") \
.getOrCreate()
df = spark.read.format("mongo").load()
df.printSchema()
但我收到错误
IllegalArgumentException:缺少数据库名称。 通过“spark.mongodb.input.uri”或“spark.mongodb.input.database”属性设置
我在做什么错
我按照这些步骤进行操作,并且能够连接。
安装 org.mongodb.spark:mongo-spark-connector_2.12:3.0.2 maven 库到您的集群,因为我使用的是 scala2.12
转到集群详细信息页面并在 Spark 选项卡下的高级选项中,添加以下两个配置参数
spark.mongodb.output.uri connection-string spark.mongodb.input.uri connection-string
注意connection-string
应该是这样的 - (有你适当的用户、密码和数据库名称)
mongodb+srv://user:password@cluster1.s5tuva0.mongodb.net/my_database?retryWrites=true&w=majority
# Reading from MongoDB
df = spark.read\
.format("com.mongodb.spark.sql.DefaultSource")\
.option("uri", "mongodb+srv://user:password@cluster1.s5tuva0.mongodb.net/database?retryWrites=true&w=majority")\
.option("database", "my_database")\
.option("collection", "my_collection")\
.load()
events_df.write\
.format('com.mongodb.spark.sql.DefaultSource')\
.mode("append")\
.option( "uri", "mongodb+srv://user:password@cluster1.s5tuva0.mongodb.net/my_database.my_collection?retryWrites=true&w=majority") \
.save()
希望这对你有用。 请让其他人知道它是否有效。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.