簡體   English   中英

Spark- 將 JavaRDD 保存到 Cassandra

[英]Spark- Saving JavaRDD to Cassandra

鏈接顯示了一種以這種方式將JavaRDD保存到Cassandra的方法:

import static com.datastax.spark.connector.CassandraJavaUtil.*;

JavaRDD<Product> productsRDD = sc.parallelize(products);
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products");

但是com.datastax.spark.connector.CassandraJavaUtil.*似乎已棄用。 更新后的 API 應該是:

import static com.datastax.spark.connector.japi.CassandraJavaUtil.*;

有人可以向我展示一些代碼來使用上面更新的 API 將JavaRDD存儲到Cassandra嗎?

按照文檔,應該是這樣的:

javaFunctions(rdd).writerBuilder("ks", "people", mapToRow(Person.class)).saveToCassandra();

代替

JavaRDD<Product> productsRDD = sc.parallelize(products);
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products »);

經過

JavaRDD<Product> productsRDD = javaFunctions(sc).cassandraTable("java_api", "products", mapRowTo(Product.class));

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM