簡體   English   中英

有沒有辦法在 Databricks SQL (Spark SQL) 中按表、模式和目錄計算行數?

[英]Is there a way to calculate the number of rows by table, schema and catalog in Databricks SQL (Spark SQL)?

我需要在 Databricks 中創建一個儀表板,用於匯總當前工作區中的行數。

有沒有辦法創建一個 SQL 查詢來按表、模式和目錄計算行數? 預期結果將是:

目錄 圖式 桌子 行數
example_catalog_1 金融 表_示例_1 1567000
example_catalog_1 金融 表_示例_2 67000
example_catalog_2 采購 表_示例_1 45324888
example_catalog_2 采購 表_示例_2 89765987
example_catalog_2 采購 表_示例_3 145000

目前,我正在研究純 SQL 工作流程。 所以我想了解是否可以使用 SQL 執行這樣的操作,因為據我所知,Databricks 中的儀表板不接受 PySpark 代碼。

我正在尋找一種方法來做到這一點。 我知道可以使用system.information_schema.tables訪問工作區中的表,但是如何使用它來計算那里顯示的每個表的總行數?

我正在通過 SQL 服務器檢查是否可以通過sys schemadynamic queryBEGIN...END子句。 我在 Databricks 中找不到這樣做的方法。

我非常懷疑您是否可以在數據塊儀表板中運行這種查詢。 @Sharma 共享的鏈接更多是關於如何使用 dataframe 獲取記錄計數,而不是如何將其與數據塊儀表板鏈接。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM