[英]data from mutiple mysql tables to hadoop map-reduce
我們有以下情形:
我們有一系列用Java實現的map-reduce processes
。當前我們正在從mysql表讀取數據並將輸出保存到另一個mysql table
。現在我們可能需要來自另一個表的數據作為map / reduce進程的輸入。
可能的解決方案:
a)我們可以有一個聯接查詢以輸入到映射過程,或者
b)我們可以通過建立簡單的jdbc connection
並一次又一次地請求數據來讀取所需的數據(盡管我不喜歡它)。
問題:
在這種情況下的最佳做法是什么? 我們mongoDB
可能會遷移到mongoDB
。在這種情況下,最佳做法是什么?
我認為目前不可能。
您可以使用SQOOP將數據從mysql表傳輸到HDFS,然后傳輸到HIVE 。 從HIVE(操作后),您可以將表導出回Mysql。
范例:
sqoop import --verbose --fields-terminate-by','--connect jdbc:mysql:// localhost / test --table employee --hive-import --warehouse-dir / user / hive / warehouse --fields -以','結尾-以id為分隔-hive-table員工
請點擊此鏈接以供參考
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.