[英]Why I see several completed jobs in task manager when I run just one job in Apache Flink?
在Apache Flink中,我在遠程集群上運行任務。 我有一個包含以下命令的任務。 我想知道,為什么Flink Web客戶端將我的任務視為已完成的工作中的幾個不同的工作?
personRecords = env.readCsvFile("path to input file/dataset1.csv")
.lineDelimiter("\n").ignoreFirstLine()
.fieldDelimiter(",")
.includeFields("111")
.types(Integer.class, String.class, String.class);
pData = personRecords.map(new cleanerMap());
pData = pData.sortPartition(3, Order.ASCENDING).setParallelism(1);
env.setParallelism(4);
MultiKey_List = partitionedData.collect();
...
pData = p.partitionCustom(new MyPartitioner(), 3);
DataSet<Tuple2<Integer, Integer>> dPairs = pData.mapPartition(new Calc());
dPairs = dPairs.flatMap(new TC(dPairs.collect())).setParallelism(1);
env.execute();
這是因為collect
命令會觸發作業的執行,直到調用它為止。 因此,它與幾乎所有其他經過急切評估的api調用不同。 觸發作業執行的另一種方法是count
。
您在collect
之后定義的所有其他接收器將由后續的collect
調用或在您調用ExecutionEnvironment.execute
時ExecutionEnvironment.execute
。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.