![](/img/trans.png)
[英]how to use java 8 stream and lambda to flatMap a groupingBy result
[英]How to use lambda flatMap() in Java with Spark 2.1
我将Python应用程序移植到Java,并停留在实现Lambda flatMap()
的正确方法上。 我正在解析IP日志,需要在''(空格)上分割。
我的环境:
我所拥有的是:
加载数据框:
Dataset<Row> MyLog = spark.sql("Select RecordNumber, IpAddress from Table);
MyLog.createOrReplaceTempView("MyLog");
现在尝试lambda flatmap()
Dataset<String> Mylog2 = Mylog.flatMap(e -> String.asList(e.split(' ')));
我尝试了几种方法来包括:
Dataset<Row> Mylog2 = Mylog.flatMap(e -> Array.asList(e.split(' ')));
Dataset<String> Mylog2 = Mylog.flatMap(lambda(e -> String.asList(e.split(' '))));
等等
原始的python看起来像这样:
Mylog2 = Mylog.rdd.flatMap(lambda(x,y): ((x,v) for v in y.split(' ')))
我将对使用Spark在Java中实现此正确方法的任何见解表示赞赏
谢谢
关于什么:
Dataset<String> Mylog2 = Mylog.flatMap(row -> java.util.Arrays.stream(row.getString(1).split(' ')).iterator(), Encoders.STRING());
但是您要拆分哪一列? 在IpAddress上?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.