繁体   English   中英

Azure 与 Databricks 兼容的文件共享解决方案

[英]Azure File-Sharing Solutions Compatible With Databricks

我正在 Azure 工具/服务生态系统中寻找文件共享解决方案。

当前的需求是能够将数千个文件(每周 3-4 千个)从在 Databricks 中运行的脚本写入允许其他一些非技术用户访问的存储解决方案。 生成报告的脚本是 Python 脚本,而不是 PySpark,尽管它确实在数据块中运行(之前有许多 PySpark 作业)。 存储解决方案必须允许:

1) 从 Python 写入/保存 excel 和 html 文件

2)用户一次查看和下载多个文件(我相信这会淘汰 Blob 存储?)

谢谢!

感谢您分享您的问题。 如果

Azure 确实提供了您可以使用的数据共享服务。 Azure Data Share可以让您将 Python 脚本写入的存储区与非技术用户读取的存储区分开。

对于第 1 点,我没有看到任何问题。 Azure 上的存储解决方案大多与文件类型无关。 技术上可以写入任何存储解决方案,主要区别在于写入过程的难易程度或时间长短。

在第 2 点中,我认为您所暗示的是,您的非技术人员可以轻松访问存储。 可以从 Blob 存储中一次下载多个文件,但门户可能不是执行此操作的最用户友好的方式。 我建议您查看Azure Storage Explorer Azure Storage Explorer 提供了一个客户端应用程序,您的用户可以使用它管理或下载所有 Azure 存储解决方案中的文件。

鉴于您如何指定 html 文件并一次查看多个文件,我怀疑您想像浏览器一样呈现文件。 许多资源都有一个 URI。 如果自包含html 文件可在 Blob 存储或 ADLS gen2 中公开访问,并且您在浏览器中导航到该文件,则 html 页面将呈现。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM