简体   繁体   English

如何列出 Azure Databricks 中的所有挂载点?

[英]How to list all the mount points in Azure Databricks?

I tried with this %fs ls dbfs:/mnt , but i want to know do this give me all the mount point?我试过这个%fs ls dbfs:/mnt ,但我想知道这会给我所有的挂载点吗?

I like to do the following:我喜欢做以下事情:

display(dbutils.fs.mounts())

as it displays the databricks path and external endpoint.因为它显示了数据块路径和外部端点。

在此处输入图像描述

I find it safer than %sh ls /mnt/ as you can have a folder in /mnt/ that is not pointing to an external storage.我发现它比%sh ls /mnt/更安全,因为您可以在 /mnt/ 中有一个不指向外部存储的文件夹。

You can simply use the Databricks filesystem commands to navigate through the mount points available in your cluster.您可以简单地使用 Databricks 文件系统命令来浏览集群中可用的挂载点。

%fs
mounts

This will give you all the mount points and also display the corresponding ADLS source file path.这将为您提供所有挂载点,并显示相应的 ADLS 源文件路径。

Before running this command, make sure you have created mount points earlier.在运行此命令之前,请确保您之前已经创建了挂载点。

在此处输入图像描述

How to list all the mount points in Azure Databricks?如何列出 Azure Databricks 中的所有挂载点?

Here is the list of commands to list all the mount points in Azure Databricks.以下是列出 Azure Databricks 中所有挂载点的命令列表。

在此处输入图像描述

all above command will display mount point.以上所有命令都会显示挂载点。 But how can we we know which storage account is used for this mount point?但是我们怎么才能知道这个挂载点使用了哪个存储账户呢?

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

相关问题 将S3安装到数据块 - mount S3 to databricks Azure Databricks Scala:如何在相应的层次结构之后替换行 - Azure Databricks Scala : How to replace rows following a respective hirarchy 如何将 Scala 变量传递给 azure 数据块中的 shell 脚本 - How to pass Scala variables to shell script in azure databricks 如何处理 Databricks 对 Azure DB 的批量插入错误 - How to deal with Databricks Bulk Insert Error to Azure DB 如何在Azure Databricks上使用Scala循环将新列添加到数据框 - How to add new columns to a dataframe in a loop using scala on Azure Databricks 如何从Azure Databricks Scala Notebook发送电子邮件 - How to send an email from Azure Databricks Scala Notebook Azure Databricks 并发作业 - 避免在所有作业中使用相同的 eventhub 消息 - Azure Databricks Concurrent Job -Avoid Consuming the same eventhub messages in all Jobs 如何从 Azure Databricks Notebook 直接读取 Azure Blob 存储文件 - How can I read an Azure Blob Storage file direclty from an Azure Databricks Notebook 如何使用 Azure Databricks 中的命令清除一个笔记本的 state 而不会影响其他笔记本? - How to clear state of one notebook without affecting other notebook using command in Azure Databricks? 如何使用 Databricks 将 CSV 写回 Azure Blob 存储? - How do you write a CSV back to Azure Blob Storage using Databricks?
 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM