[英]How to convert dataframe to RDD and store it in cassandra using spark scala
如何將數據幀轉換為 RDD 並將其存儲在 Spark Scala 的 Cassandra 中。 考慮一個像下面這樣的例子,
emp_id| emp_city|emp_name
1|Hyderabad| ram
4| Banglore| deeksha
這里我僅使用 3 列作為示例,但實際上我需要處理 18 列。
可以直接保存DF,無需轉換為RDD。
df.write.format("org.apache.spark.sql.cassandra").options(Map( "table" -> "employee", "keyspace" -> "emp_data")).save()
謝謝。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.