繁体   English   中英

Apache-Spark如何与类中的方法一起使用

[英]How does Apache-Spark work with methods inside a class

我现在正在学习Apache-Spark。 在仔细阅读了Spark教程之后,我了解了如何将Python函数传递给Apache-Spark来处理RDD数据集。 但是现在我仍然不知道Apache-Spark如何与类中的方法一起使用。 例如,我的代码如下:

import numpy as np
import copy
from pyspark import SparkConf, SparkContext

class A():
    def __init__(self, n):
        self.num = n

class B(A):
    ### Copy the item of class A to B.
    def __init__(self, A):
        self.num = copy.deepcopy(A.num)

    ### Print out the item of B
    def display(self, s):
        print s.num
        return s

def main():
    ### Locally run an application "test" using Spark.
    conf = SparkConf().setAppName("test").setMaster("local[2]")

    ### Setup the Spark configuration.
    sc = SparkContext(conf = conf)

    ### "data" is a list to store a list of instances of class A. 
    data = []
    for i in np.arange(5):
        x = A(i)
        data.append(x)

    ### "lines" separate "data" in Spark.  
    lines = sc.parallelize(data)

    ### Parallelly creates a list of instances of class B using
    ### Spark "map".
    temp = lines.map(B)

    ### Now I got the error when it runs the following code:
    ### NameError: global name 'display' is not defined.
    temp1 = temp.map(display)

if __name__ == "__main__":
    main()

实际上,我使用上述代码使用temp = lines.map(B)并行生成class B的实例列表。 之后,我做了temp1 = temp.map(display) ,因为我想并行打印出class B实例列表中的每个项目。 但是现在出现了错误: NameError: global name 'display' is not defined. 我想知道如果仍然使用Apache-Spark并行计算,如何解决该错误。 如果有人帮助我,我真的很感激。

结构体

.
├── ab.py
└── main.py

main.py

import numpy as np
from pyspark import SparkConf, SparkContext
import os
from ab import A, B

def main():
    ### Locally run an application "test" using Spark.
    conf = SparkConf().setAppName("test").setMaster("local[2]")

    ### Setup the Spark configuration.
    sc = SparkContext(
            conf = conf, pyFiles=[
               os.path.join(os.path.abspath(os.path.dirname(__file__)), 'ab.py')]
    ) 

    data = []
    for i in np.arange(5):
        x = A(i)
        data.append(x)

    lines = sc.parallelize(data)
    temp = lines.map(B)

    temp.foreach(lambda x: x.display()) 

if __name__ == "__main__":
    main()

ab.py

import copy

class A():
    def __init__(self, n):
        self.num = n

class B(A):
    ### Copy the item of class A to B.
    def __init__(self, A):
        self.num = copy.deepcopy(A.num)

    ### Print out the item of B
    def display(self):
        print self.num

评论:

  • 再一次-打印是个坏主意。 忽略Spark架构,很有可能会成为程序中的瓶颈。
  • 如果需要诊断输出,请考虑记录日志或收集样本并在本地检查: for x in rdd.sample(False, 0.001).collect(): x.display()
  • 对于副作用,请使用foreach而不是map
  • 我修改了display方法。 我不知道什么应该是s在这方面

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM