![](/img/trans.png)
[英]How to store more than 100 records using cosmos batch from azure cosmos db using query
[英]How to write only non existing records to Cosmos DB from using Azure Cosmos DB Spark?
我正在使用 Databricks,它使用 Spark 连接器将 CSV 文件中的数据写入 Cosmos DB。 现在我的 Cosmos DB 已经包含很少的记录,所以当我运行 Databricks Notebooks 时,它应该只写入 DB 中不存在的记录。 我尝试使用 SaveMode.Ignore 但没有帮助。
df.write.mode(SaveMode.Ignore).cosmosDB(writeConfig)
现在理想情况下, SaveMode.Ignore 应该跳过现有记录并写入数据库中不存在但没有发生的唯一记录。
如果有人对如何实现这一目标提出建议,那将是一个很大的帮助。
谢谢。
使用 CSV 文件中的一些唯一字段创建具有唯一键的容器。 之后,您无法将重复的唯一键值添加到 Cosmos DB。
更多信息: https://docs.microsoft.com/en-us/azure/cosmos-db/unique-keys
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.