[英]Is there a way to calculate the number of rows by table, schema and catalog in Databricks SQL (Spark SQL)?
我需要在 Databricks 中創建一個儀表板,用於匯總當前工作區中的行數。
有沒有辦法創建一個 SQL 查詢來按表、模式和目錄計算行數? 預期結果將是:
目錄 | 圖式 | 桌子 | 行數 |
---|---|---|---|
example_catalog_1 | 金融 | 表_示例_1 | 1567000 |
example_catalog_1 | 金融 | 表_示例_2 | 67000 |
example_catalog_2 | 采購 | 表_示例_1 | 45324888 |
example_catalog_2 | 采購 | 表_示例_2 | 89765987 |
example_catalog_2 | 采購 | 表_示例_3 | 145000 |
目前,我正在研究純 SQL 工作流程。 所以我想了解是否可以使用 SQL 執行這樣的操作,因為據我所知,Databricks 中的儀表板不接受 PySpark 代碼。
我正在尋找一種方法來做到這一點。 我知道可以使用system.information_schema.tables
訪問工作區中的表,但是如何使用它來計算那里顯示的每個表的總行數?
我正在通過 SQL 服務器檢查是否可以通過sys schema
、 dynamic query
或BEGIN...END
子句。 我在 Databricks 中找不到這樣做的方法。
我非常懷疑您是否可以在數據塊儀表板中運行這種查詢。 @Sharma 共享的鏈接更多是關於如何使用 dataframe 獲取記錄計數,而不是如何將其與數據塊儀表板鏈接。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.